Spędzałem czas na przyglądaniu się, jak sieć Mira podchodzi do niezawodności AI, a to, co mnie uderzyło, to fakt, że nie stara się zbudować lepszego modelu. Stara się zbudować lepszą warstwę weryfikacyjną.
To rozróżnienie ma znaczenie.
Większość systemów AI dzisiaj polega na scentralizowanej walidacji. Firma szkoli model, ocenia go wewnętrznie, może przeprowadza jakieś benchmarki, a następnie go wysyła. Jeśli model halucynuje lub odzwierciedla uprzedzenia, odpowiedzialność spoczywa na tej jednej organizacji. Nie ma niezależnej weryfikacji na poziomie protokołu.
Sieć Mira podchodzi do tego inaczej. Zamiast zakładać, że pojedynczy model jest godny zaufania, traktuje wyniki AI jako zestaw twierdzeń, które można przetestować. Odpowiedź dzieli się na mniejsze stwierdzenia. Te stwierdzenia są następnie weryfikowane przez niezależne modele AI, z których każdy działa jak oddzielny recenzent. Jeśli wystarczająca liczba niezależnych weryfikatorów się zgadza, wynik zyskuje wiarygodność.
To przypomina, jak działają sieci weryfikacji faktów. Jeden źródło to za mało. Wiele perspektyw zmniejsza błąd.
Co czyni to interesującym, to fakt, że wyniki weryfikacji są zakotwiczone poprzez konsensus oparty na blockchainie i dowody kryptograficzne. To eliminuje potrzebę zaufania centralnej władzy. Proces staje się przejrzysty i ekonomicznie zabezpieczony poprzez zachęty powiązane z $MIRA . Weryfikatorzy są nagradzani za dokładną weryfikację i karani za słabą wydajność.
Śledziłem aktualizacje z @Mira - Trust Layer of AI i jasno widać, że #Mira i #MiraNetwork koncentrują się mniej na rozmiarze modelu, a bardziej na strukturze zaufania.
Oczywiście, rozproszona weryfikacja nie jest darmowa. Dodaje koszty obliczeniowe i złożoność koordynacji. A przestrzeń AI w zdecentralizowanej formie jest konkurencyjna i wciąż się rozwija.
Ale w miarę jak systemy AI integrują się w finansach, rządach i badaniach, neutralna warstwa weryfikacyjna zaczyna wyglądać mniej opcjonalnie, a bardziej koniecznie.
To jest część, do której ciągle wracam.
