Im więcej patrzę na to, jak wyniki AI są rzeczywiście wykorzystywane w rzeczywistych systemach, tym jaśniejsza staje się jedna granica.
Precyzja nie skaluje się w nieskończoność.
Większość systemów AI zachowuje się tak, jakby lepsze modele oznaczały po prostu mniej problemów. Mira zaczyna od innej przesłanki: niezawodność osiąga plateau.
To założenie przekształca budowę.
Zamiast polegać na jednym wyniku prawdopodobieństwa, odpowiedzi są dzielone na dyskretne roszczenia i kierowane do niezależnych weryfikatorów. Zgoda nie jest wewnętrzną pewnością, jest produkowana poprzez weryfikację krzyżową.
To zmienia sposób, w jaki ludzie budują na tym.
Celem przestaje być wyciskanie marginalnej pewności z podpowiedzi. Staje się to strukturyzowaniem przepływów, gdzie poszczególne roszczenia mogą być badane, zanim cokolwiek zostanie wykonane.
W automatycznym handlu lub przydziale kredytów, ta różnica ma realne znaczenie. Wysoki wynik pewności wciąż przenosi całe ryzyko na tego, kto na nim działa. Rozproszona weryfikacja wprowadza kontrolę zanim kapitał się poruszy.
Ograniczającym czynnikiem w zastosowanej AI nie jest surowa zdolność modelu.
To, czy wyniki podlegają zewnętrznej weryfikacji, zanim przyniosą konsekwencje.
@Mira - Trust Layer of AI $MIRA #Mira
