#mira $MIRA Kiedy zagłębiałem się w sposoby, aby uczynić AI bardziej niezawodnym, natknąłem się na API Verify i Generate Mira. To, co naprawdę mnie zainteresowało, to to: nie musisz po prostu akceptować tego, co AI wyrzuca, jest rzeczywiście sposób, aby podwójnie sprawdzić te odpowiedzi, zanim ktokolwiek na nich polegnie.
Oto rzecz. W tej chwili większość AI po prostu podaje ci odpowiedź, i to wszystko. Brak wbudowanego sprawdzenia rzeczywistości. Czasami dostajesz dziwne błędy lub subtelne pomyłki, jak pytanie grupy losowych ludzi o wskazówki i po prostu mając nadzieję, że jeden z nich wie, o czym mówi. Mira to zmienia, dzieląc rzeczy na dwa kroki: najpierw używasz API Generate, aby uzyskać odpowiedź od AI. Następnie, za pomocą API Verify, Mira przesyła tę odpowiedź przez sieć niezależnych weryfikatorów. Ci ludzie rozkładają odpowiedź na czynniki pierwsze, przyglądają się roszczeniom wewnątrz i głosują, czy każde z nich się zgadza. Gdy wystarczająca liczba osób się zgodzi, Mira zabezpiecza wynik za pomocą dowodu kryptograficznego. W ten sposób deweloperzy otrzymują znacznie jaśniejszy sygnał o tym, jak bardzo mogą ufać wynikowi AI.
Aby utrzymać weryfikatorów w uczciwości i zmotywowanych, Mira używa rzeczy takich jak stakowanie i zachęty sieciowe. Zasadniczo, jeśli chcesz pomóc w weryfikacji, musisz postawić coś na szali, a zostaniesz nagrodzony za wykonanie zadania dobrze. Więc niezawodność to już nie tylko problem modelu, to coś, co cała sieć podejmuje razem. Oczywiście, żaden system taki jak ten nie jest doskonały. Zdecentralizowana weryfikacja ma swoje własne bóle głowy, jak upewnienie się, że weryfikatorzy mogą rzeczywiście współpracować, skalowanie w miarę wzrostu, i obsługiwanie trudnych roszczeń wystarczająco szybko do użytku w rzeczywistym świecie. Ale szczerze mówiąc, to duży krok naprzód od po prostu liczenia na to, że AI miało rację.@Mira - Trust Layer of AI