Pierwszy raz, kiedy zobaczyłem, jak AI pewnie wymyśla cytat, który nie istniał, poczułem, że coś pęka. Nie dlatego, że to było szokujące - wszyscy wiemy, że duże modele językowe halucynują - ale dlatego, że zostało to przedstawione z taką cichą pewnością. Ton był stabilny. Logika wydawała się zasłużona. Pod spodem jednak nie było nic. Tylko statystyczne dopasowywanie wzorców otoczone autorytetem. Ta luka między pewnością a prawdą to miejsce, w którym systemy takie jak MIRA Network próbują zbudować fundament.
Kiedy mówimy o halucynacjach AI, zazwyczaj przedstawiamy je jako błędy. W rzeczywistości są one strukturalne. Duży model językowy przewiduje następny token na podstawie rozkładów prawdopodobieństwa wyuczonych z ogromnych zbiorów danych. Jeśli widział wystarczająco dużo wzorców przypominających legalny cytat, roszczenie medyczne lub odniesienie historyczne, może wygenerować coś, co wygląda poprawnie, nawet gdy tak nie jest. Na powierzchni to tylko autouzupełnianie w skali. Pod spodem to silnik kompresji, który rekonstruuje wiarygodny język bez dostępu do prawdy.
Ta różnica ma znaczenie. Ponieważ jeśli model nie jest oparty na weryfikowalnych danych w czasie wnioskowania, nie może odróżnić między prawdopodobnym a poprawnym. Zna tylko prawdopodobieństwo. Badania wykazały, że wskaźniki halucynacji w otwartych pytaniach wynoszą od niskich jednocyfrowych do ponad 20 procent w zależności od złożoności zadania i rozmiaru modelu. Ta liczba sama w sobie nie jest opowieścią. To, co ujawnia, to fakt, że nawet przy 5 procentach, jeśli wdrożysz system obsługujący milion zapytań dziennie, produkujesz 50 000 potencjalnie fałszywych wyników. Skala przekształca małe wskaźniki błędów w ryzyko systemowe.
To tutaj projekt sieci MIRA staje się interesujący. Na powierzchni przedstawia się jako warstwa zaufania dla wyników AI. To brzmi abstrakcyjnie, dopóki nie zobaczysz mechaniki. Idea nie polega na przeszkoleniu modelu do perfekcji. Zamiast tego MIRA traktuje każdy wynik AI jako roszczenie, które można zweryfikować. Wynik jest rozkładany na atomowe oświadczenia. Każde oświadczenie jest następnie sprawdzane w odniesieniu do danych źródłowych zakotwiczonych kryptograficznie lub weryfikowane poprzez mechanizmy konsensusu. Wynik to nie tylko odpowiedź, ale odpowiedź z dołączonym dowodem.
Pod tym prostym opisem kryje się warstwowa architektura. Po pierwsze, istnieje model, który generuje odpowiedź. Po drugie, istnieje warstwa weryfikacyjna, która rozkłada odpowiedź na roszczenia. Po trzecie, istnieje sieć walidatorów, którzy niezależnie oceniają te roszczenia. Ich oceny są rejestrowane w księdze z dowodami kryptograficznymi. Ta księga nie jest tam dla marki. Jest tam po to, aby kiedy roszczenie zostanie zweryfikowane lub zakwestionowane, zapis nie może być cicho zmieniony.
To, co to umożliwia, jest subtelne, ale potężne. Zamiast prosić użytkowników o zaufanie modelowi, prosisz ich o zaufanie procesowi. Jeśli AI stwierdza, że badanie kliniczne obejmowało 3,000 uczestników, system może dołączyć dowód wskazujący na oryginalny wpis w rejestrze badania, zhaszowany i z znaczkiem czasowym. Jeśli roszczenie nie może zostać zweryfikowane, jest oznaczane. To zmienia strukturę interakcji. Nie konsumujesz już płynnego tekstu. Czytasz tekst z paragonami.
Z tym wiąże się koszt. Weryfikacja wymaga czasu i obliczeń. Dowody kryptograficzne nie są darmowe. Jeśli każde zdanie jest kierowane przez walidatorów i zakotwiczone w księdze, latencja wzrasta. To tworzy kompromis między szybkością a pewnością. W niektórych zastosowaniach, jak swobodna rozmowa, szybkość wygrywa. W innych, jak sporządzanie dokumentów prawnych czy analiza finansowa, wolniejszy, ale zweryfikowany wynik może być wart oczekiwania.
Zrozumienie tego kompromisu pomaga wyjaśnić, dlaczego MIRA nie stara się weryfikować wszystkiego równie. System może priorytetować roszczenia o wysokim wpływie. Kreatywna historia nie potrzebuje sprawdzania cytatów. Obliczenie podatku tak. Ten selektywny model weryfikacji odzwierciedla to, jak działają ludzie. Nie sprawdzamy faktów przy każdej dowcipie, ale podwójnie sprawdzamy liczby przed złożeniem dokumentów.
Istnieje również warstwa zachęt. Walidatorzy w MIRA nie są abstrakcyjnymi algorytmami. Są uczestnikami, którzy stakują tokeny i są nagradzani za dokładną weryfikację. Jeśli będą się współdziałać lub zatwierdzać fałszywe roszczenia, ryzykują utratę staku. Ta presja ekonomiczna ma na celu utrzymanie uczciwości warstwy weryfikacyjnej. Na powierzchni wygląda to jak mechanizm kryptograficzny. Pod spodem to próba dostosowania zachęt, aby prawda miała wagę ekonomiczną.
Krytycy będą argumentować, że to po prostu przesuwa problem. Co jeśli walidatorzy są stronniczy? Co jeśli dane źródłowe są wadliwe? To uzasadnione pytania. Dowód kryptograficzny tylko gwarantuje, że stwierdzenie pasuje do zarejestrowanego źródła, a nie że samo źródło jest poprawne. MIRA nie eliminuje epistemicznej niepewności. Zawęża lukę między roszczeniem a dowodem. To znacząca różnica, ale to nie magia.
Kiedy po raz pierwszy spojrzałem na ten model, to, co mnie uderzyło, to jak przekształca halucynacje. Zamiast traktować je jako wstyd, który trzeba ukryć, traktuje je jako przewidywalny produkt uboczny systemów generujących, które muszą być ograniczone. Jeśli modele są silnikami probabilistycznymi, to weryfikacja musi być deterministyczna. Ta dualność - prawdopodobieństwo na górze, dowód pod spodem - tworzy warstwowy system, w którym kreatywność i poprawność mogą współistnieć.
Tymczasem ta architektura sugeruje szerszą zmianę w sposobie, w jaki myślimy o infrastrukturze AI. Przez lata skupiano się na skalowaniu modeli - więcej parametrów, więcej danych, więcej obliczeń. Ten momentum stworzyło inny efekt. W miarę jak modele stawały się bardziej płynne, koszt pojedynczego błędu również wzrastał. Im bardziej ludzki wydaje się wynik, tym bardziej skłonni jesteśmy mu zaufać. To sprawia, że niewidoczne błędy są bardziej niebezpieczne niż oczywiste.
Wprowadzając weryfikację kryptograficzną do procesu, MIRA cicho argumentuje, że następna faza AI nie dotyczy tylko większych modeli. Chodzi o ramy odpowiedzialności. W taki sam sposób, w jaki systemy finansowe polegają na audytowanych księgach, a łańcuchy dostaw na śledzeniu, systemy AI mogą wymagać weryfikowalnych ścieżek wyników. Wczesne oznaki sugerują, że organy regulacyjne zmierzają w tym kierunku, zwłaszcza w sektorach takich jak opieka zdrowotna i finanse, gdzie przejrzystość nie jest opcjonalna.
Istnieje tutaj głębsza implikacja. Jeśli wyniki AI stają się weryfikowalnymi obiektami na publicznej księdze, stają się kompozytowalne. Jedno zweryfikowane roszczenie może być ponownie wykorzystane przez inny system bez ponownego sprawdzania od podstaw. Z biegiem czasu, to może stworzyć wspólną warstwę maszynowo weryfikowanej wiedzy. Nie doskonałej wiedzy. Ale wiedzy z ścieżką audytu. To inna podstawa niż obecny model odpowiedzi w czarnych skrzynkach.
Oczywiście, to działa tylko wtedy, gdy użytkownicy cenią dowód. Jeśli większość ludzi woli szybkie odpowiedzi od zweryfikowanych, presja rynkowa może ponownie skłonić systemy ku szybkości. A jeśli weryfikacja stanie się zbyt kosztowna, może skupić się wokół kilku dominujących walidatorów, odtwarzając wąskie gardła zaufania. Te ryzyka pozostają. Jeśli to się utrzyma, jednak stała integracja gwarancji kryptograficznych w wyniki AI może znormalizować nowe oczekiwanie: że inteligencja powinna pokazywać swoje wyniki.
To oczekiwanie już kształtuje sposób, w jaki programiści budują. Widzimy generację wspomaganą wyszukiwaniem, systemy cytatów i narzędzia do monitorowania modeli. MIRA znajduje się na skrzyżowaniu tych trendów, dodając oparty na księdze rdzeń. Sugeruje, że halucynacje nie są tylko problemem modelu, ale problemem infrastrukturalnym. Napraw infrastrukturę, a słabości modelu stają się zarządzalne, a nie katastrofalne.
To, co to ujawnia na temat kierunku, w jakim zmierzają rzeczy, jest proste. W miarę jak AI staje się osadzone w krytycznym podejmowaniu decyzji, zaufanie nie będzie przyznawane na podstawie płynności. Będzie zdobywane dzięki weryfikowalności. Cicha zmiana z generowanego tekstu na kryptograficznie zakotwiczony tekst może nie wydawać się dramatyczna w danym momencie. Ale pod spodem zmienia to kontrakt między ludźmi a maszynami.
A może to jest prawdziwy punkt zwrotny. Nie wtedy, gdy AI przestaje halucynować, ponieważ prawdopodobnie nigdy nie przestanie, ale kiedy każda halucynacja nie ma już miejsca, w którym mogłaby się ukryć.
\u003ct-24/\u003e \u003ct-26/\u003e #CryptoVerification \u003ct-28/\u003e \u003ct-30/\u003e
\u003cm-43/\u003e \u003cc-45/\u003e \u003ct-47/\u003e