@Mira - Trust Layer of AI $MIRA
AI może wydawać się magiczne, aż do momentu, w którym pewnie mówi ci coś, co nie jest prawdą. To jest problem z niezawodnością: nowoczesne modele generują płynny tekst, przewidując prawdopodobieństwa, a nie udowadniając fakty, więc halucynacje i stronniczość mogą wkradać się do odpowiedzi, które brzmią autorytatywnie. Mira jest zbudowana na ten dokładny moment wątpliwości. Zamiast prosić cię o "zaufanie modelowi", traktuje wyniki AI jak coś, co powinno być sprawdzone, w ten sam sposób, w jaki weryfikujemy płatność, zanim na niej polegamy. W ujęciu Miry, niezawodność to nie tylko lepszy problem modelu; to problem weryfikacji, który można rozwiązać w sieci, gdzie wielu niezależnych weryfikatorów może się zgodzić - lub nie zgodzić - w przejrzysty sposób.
W sercu Miry znajduje się prosty proces roboczy: użytkownik lub aplikacja przesyła "treść kandydującą", sieć przekształca ją w mniejsze roszczenia, które mogą być oceniane w sposób spójny, te roszczenia są wysyłane do wielu niezależnych weryfikatorów, a ich oceny są łączone w wynik konsensusu. Biała księga opisuje, jak przekształcić złożoną treść w "niezależnie weryfikowalne roszczenia", aby różni weryfikatorzy odpowiadają na to samo pytanie w tym samym kontekście, zamiast każdy interpretować cały akapit inaczej. Ma to działać nie tylko dla krótkich stwierdzeń faktograficznych, ale także dla dłuższych dokumentów, a nawet treści technicznych jak kod, poprzez standaryzację tego, co jest sprawdzane. Aplikacja może również ustawić wymagania dotyczące weryfikacji - jak domena lub próg konsensusu - aby przypadek o wysokiej stawce mógł wymagać silniejszej zgody. Gdy sieć osiąga decyzję, Mira może zwrócić zarówno wynik, jak i kryptograficzny zapis tego, jak przebiegała weryfikacja, co sprawia, że wynik jest audytowalny, a nie "tylko opinią innego modelu."
Mira nie udaje, że źli aktorzy się nie pojawią, więc łączy przepływ techniczny z modelem bezpieczeństwa ekonomicznego. W białej księdze węzły są motywowane do uczciwej weryfikacji poprzez hybrydowy projekt Proof-of-Work/Proof-of-Stake, w którym weryfikatorzy wykonują rzeczywistą pracę wnioskowania i mają także wartość na ryzyku. Ponieważ niektóre weryfikacje mogą przypominać ustandaryzowane pytania, losowe zgadywanie może być kuszące, więc stakowanie i tnące są używane do karania węzłów, które konsekwentnie odchylają się od konsensusu lub zachowują się, jakby zgadywały. Chodzi o to, że żaden pojedynczy weryfikator nie jest doskonały; chodzi o to, że manipulacja staje się kosztowna, gdy uczestnictwo jest różnorodne, a zachęty są zgodne.
Jeśli chcesz ocenić Mirę jako infrastrukturę, kilka wskaźników ma większe znaczenie niż hype: opóźnienie weryfikacji (jak długo trwa zwrócenie sprawdzonej odpowiedzi), przepustowość (ile treści może przetworzyć), różnorodność weryfikatorów (jak niezależne są modele i operatorzy) oraz wskaźniki sporów (jak często roszczenia nie osiągają konsensusu). Raport Messari opisuje Mirę jako filtrującą dane wyjściowe AI przez niezależne modele i dołączającą certyfikaty kryptograficzne, a także dzieli się danymi dostarczonymi przez zespół na temat skali i poprawy dokładności, gdy dane wyjściowe są filtrowane przez konsensus, zauważając jednocześnie, że są to wczesne, samo raportowane wskaźniki. Nawet z tą ostrożnością kierunek jest jasny: Mira chce być "warstwą zaufania" osadzoną w chatbotach, narzędziach finansowych, aplikacjach edukacyjnych i każdym kanale, w którym tekst AI staje się realnym wkładem w decyzje. (Messari)
Ryzyka dotyczą głównie zachęt i projektowania. Jeśli operatorzy weryfikatorów staną się zbyt skoncentrowani, "zdecentralizowany" staje się hasłem. Jeśli krok dzielenia roszczeń straci ważny kontekst, sieć może weryfikować fragmenty, pomijając większy błąd. A jeśli nagrody są źle skalibrowane, weryfikatorzy mogą optymalizować pod kątem dążenia do konsensusu zamiast poszukiwania prawdy. Ale jeśli Mira dobrze wyważy równowagę, przyszłość jest prosta i pełna nadziei: przestajemy się spierać o to, czy AI jest godne zaufania w teorii, i zaczynamy domagać się dowodów w praktyce, budując systemy, które mogą działać z pewnością, ponieważ ich wyniki mają dowód.