To, co przykuło moją uwagę, nie było twierdzeniem w nagłówku, ale głębszym założeniem. Ludzie wciąż mówią, że lepszy model podstawowy ostatecznie rozwiąże problem zaufania. Nie jestem pewien, czy to jest prawdziwa droga. @Mira - Trust Layer of AI $MIRA #Mira

Moje rozumienie Miri jest prostsze: projekt zaczyna się od pomysłu, że jeden model nie może jednocześnie minimalizować halucynacji i stronniczości, więc problem przesuwa się z generacji na weryfikację. Jeśli to założenie jest słuszne, to „po prostu lepiej go wytrenuj” przestaje być pełną odpowiedzią. Biała księga Miri mówi, że obecna niezawodność AI jest ograniczona przez dylemat szkoleniowy: zaostrzenie danych w celu zmniejszenia halucynacji może wprowadzić stronniczość selekcyjną, podczas gdy poszerzenie danych w celu zmniejszenia stronniczości może zwiększyć niekonsekwentne lub fałszywe wyniki. Idzie dalej i argumentuje, że istnieje minimalna stopa błędów, której żaden pojedynczy model nie może przezwyciężyć, niezależnie od skali czy architektury. Mechanizm Miri polega na dzieleniu wyników na weryfikowalne twierdzenia i pozwalaniu wielu modelom na weryfikację tych twierdzeń poprzez zdecentralizowany konsensus, zamiast ufać pewności jednego modelu.

Pomyśl o asystencie prawnym, który redaguje klauzulę. Sformułowanie brzmi czysto. Odpowiedź wydaje się profesjonalna. Ale jeden prawdopodobny błąd w języku ubezpieczenia jest wystarczający, aby stworzyć rzeczywistą odpowiedzialność. To ryzyko nie jest teoretyczne: badanie AI w prawie z 2024 roku wykazało, że halucynacje były alarmująco powszechne, nawet w przypadku konkretnych, weryfikowalnych pytań prawnych. Dlaczego to ma znaczenie dla kryptowalut: jeśli AI ma dotykać agentów on-chain, przepływów zgodności lub wyników podobnych do orakuli, „brzmi dobrze” nie jest modelem bezpieczeństwa. Weryfikowane wyniki mogą mieć większe znaczenie niż mądrzejsze pokazy. Wymiana jest oczywista, jednak: więcej weryfikacji prawdopodobnie oznacza więcej koordynacji, więcej opóźnień i nowe problemy z projektowaniem zachęt.

Jeśli jeden model nie może jednocześnie minimalizować halucynacji i stronniczości, czy następna warstwa zaufania należy do lepszego szkolenia, czy do weryfikacji skoordynowanej przez kryptowaluty?

@Mira - Trust Layer of AI $MIRA #Mira