Miałem dość momentów, w których odpowiedź AI wydawała się słuszna, a następnie szybkie sprawdzenie udowodniło, że była pewnie błędna. Podejście Miry jest w zasadzie naprawą dla tego specyficznego trybu błędu: nie prosi cię o zaufanie jednemu modelowi. Zmusza odpowiedź do przetrwania procesu konsensusu.

Odpowiedź dzieli się na mniejsze, weryfikowalne twierdzenia („sharding”), a te twierdzenia są wysyłane do niezależnych weryfikatorów, aby ocenić. Sieć następnie agreguje głosy i akceptuje tylko to, co przekracza próg konsensusu, wydając certyfikat kryptograficzny tego, co zostało sprawdzone i jak to zostało rozwiązane.

Bariery są ekonomiczne. Węzły stawiają wartość, aby uczestniczyć, zdobywają nagrody za uczciwą weryfikację i mogą zostać ukarane, jeśli konsekwentnie odchylają się lub działają jakby zgadywały. To sprawia, że „halucynowanie z pewnością” jest kosztowne na poziomie sieci. więc system jest ukierunkowany na dokładność, a nie na styl.

#Mira $MIRA

MIRA
MIRA
--
--

@Mira - Trust Layer of AI