Żyjemy w dziwnym momencie, w którym komputery potrafią pisać poezję, diagnozować choroby i handlować akcjami, a jednocześnie są doskonale komfortowe w wymyślaniu faktów i przedstawianiu ich z pełnym przekonaniem. Jeśli kiedykolwiek zadałeś pytanie AI i otrzymałeś odpowiedź, która brzmiała poprawnie, ale okazała się całkowicie błędna, doświadczyłeś tego, co ludzie w branży nazywają halucynacją. To nie jest rzadki błąd. To jest wbudowane w sposób, w jaki te systemy działają. One tak naprawdę nie myślą ani niczego nie wiedzą. Po prostu przewidują, jakie słowa powinny nastąpić na podstawie wzorców, które wcześniej widziały. To działa dobrze w twórczym pisaniu, ale to jest koszmar, gdy potrzebujesz wiarygodnych informacji na temat czegoś, co naprawdę ma znaczenie.
W tym miejscu wkracza Mira Network, a to, co budują, wydaje się być jednym z tych pomysłów, które powinny istnieć od zawsze. Zamiast prosić cię o zaufanie jednemu modelowi AI i mieć nadzieję, że wszystko będzie w porządku, Mira tworzy system, w którym wiele niezależnych modeli AI sprawdza swoją pracę. Pomyśl o tym jak o posiadaniu kilku ekspertów, którzy patrzą na ten sam problem, a nie tylko jednego. Jeśli wszyscy się zgadzają, możesz czuć się dość pewnie co do odpowiedzi. Jeśli się nie zgadzają, to również jest cenne informacje. Oznacza to, że roszczenie potrzebuje więcej uwagi lub może być bardziej skomplikowane, niż się wydawało na początku.
Sposób, w jaki działa Mira, zaczyna się od czegoś, co nazywają denotacją, co jest naprawdę tylko wyszukanym sposobem na powiedzenie, że rozkładają złożone wyniki AI na mniejsze, prostsze roszczenia, które można sprawdzać indywidualnie. Jeśli AI powie ci, że Paryż jest stolicą Francji, a Wieża Eiffla jest jej najsłynniejszym zabytkiem, Mira dzieli to na dwa oddzielne stwierdzenia. Każde z nich jest wysyłane do różnych węzłów w sieci, gdzie niezależne modele AI oceniają, czy jest to prawda, czy fałsz. Te węzły nie widzą pełnego oryginalnego kontekstu, co jest faktycznie cechą prywatności. Oznacza to, że żaden pojedynczy uczestnik nie może zrekonstruować wszystkiego, co zostało przesłane, utrzymując poufne informacje rozproszone i zabezpieczone.
Każdy operator węzła uruchamia swój własny model AI, a te modele pochodzą z różnych firm i różnych środowisk szkoleniowych. Możesz mieć jeden węzeł uruchamiający coś z Meta, inny używający modelu z Anthropic, inny z DeepSeek i tak dalej. Ta różnorodność ma znaczenie, ponieważ jeśli wszystkie modele byłyby takie same, prawdopodobnie popełniłyby te same błędy. Mieszając różne architektury i źródła danych, Mira utrudnia wykrycie błędów. Gdy roszczenie dociera do węzła, model tam ocenia je i zwraca prostą odpowiedź tak lub nie. Czy to roszczenie było prawdziwe czy fałszywe? Sieć gromadzi wszystkie te odpowiedzi i szuka konsensusu. Jeśli wystarczająca liczba modeli się zgadza, roszczenie zostaje zweryfikowane. Jeśli się nie zgadzają, roszczenie zostaje oznaczone do dalszej analizy lub zaznaczone jako niepewne.
To, co sprawia, że ten system działa, to warstwa ekonomiczna zbudowana pod nim. Mira stosuje hybrydowe podejście łączące elementy dowodu pracy i dowodu stawki, ale dostosowane specjalnie do weryfikacji AI. Operatorzy węzłów muszą stakować tokeny MIRA, aby uczestniczyć, co oznacza, że mają coś do stracenia. Jeśli konsekwentnie zapewniają dokładną weryfikację, która jest zgodna z konsensusem sieci, zdobywają nagrody. Jeśli próbują oszukiwać lub działają lekkomyślnie, są karani przez coś, co nazywa się slashing, gdzie część ich stakowanych tokenów jest odbierana. Tworzy to sytuację, w której uczciwość jest dosłownie najbardziej opłacalnym wyborem. Praca tych węzłów nie jest po prostu bezsensownym obliczeniem, jak tradycyjne wydobywanie kryptowalut. To rzeczywista użyteczna praca weryfikacyjna, sprawdzająca fakty i walidująca roszczenia, które są istotne dla ludzi.
Jak dotąd wyniki były dość uderzające. Według danych z sieci, wyniki AI, które wcześniej miały około 70 procent dokładności faktów, osiągają do 96 procent dokładności po przejściu przez proces konsensusu Miri. Halucynacje spadły o około 90 procent w aplikacjach korzystających z systemu. Sieć przetwarza obecnie ponad 3 miliardy tokenów każdego dnia, co przekłada się na miliony indywidualnych roszczeń weryfikowanych. To nie jest teoretyczne. To rzeczywiste wykorzystanie dzieje się teraz w chatbotach, platformach edukacyjnych, narzędziach finansowych i aplikacjach zdrowotnych.
Co jest szczególnie interesujące w Mirze, to że nie próbuje zastąpić istniejących modeli AI ani z nimi konkurować. Pozycjonuje się jako infrastruktura, która sprawia, że wszystkie systemy AI są bardziej godne zaufania. Zbudowali interfejsy API i zestawy narzędzi do rozwoju oprogramowania, które pozwalają programistom włączać weryfikację bezpośrednio do ich istniejących przepływów pracy. Jeśli budujesz bota handlowego, możesz mieć Mirę, która weryfikuje każdą decyzję, zanim wykona transakcję. Jeśli tworzysz aplikację edukacyjną, możesz upewnić się, że treści, które widzą uczniowie, zostały sprawdzone przez wiele niezależnych modeli. Jeśli rozwijasz asystenta zdrowotnego, możesz dodać warstwę weryfikacji, która wychwyci potencjalne błędy, zanim dotrą do pacjentów.
Ekonomia tokenów jest tutaj prosta, ale starannie zaprojektowana. Istnieje stała podaż 1 miliarda tokenów MIRA. Użytkownicy wydają te tokeny na usługi weryfikacji, co tworzy rzeczywiste zapotrzebowanie związane z rzeczywistą użytecznością. Operatorzy węzłów stakują je, aby uczestniczyć w sieci i zdobywać nagrody za uczciwą pracę. Posiadacze tokenów mogą głosować w sprawach dotyczących zarządzania tym, jak rozwija się protokół. To zamknięta pętla, w której wartość tokena jest bezpośrednio związana z wartością świadczonej usługi weryfikacyjnej.
Patrząc na partnerstwa, które Mira nawiązała, można zobaczyć zakres, w którym ta technologia zmierza. Wsp współpracują z dostawcami obliczeń, takimi jak io.net i Spheron, aby uzyskać dostęp do rozproszonej mocy GPU, co pozwala im skalować bez polegania na scentralizowanych centrach danych. Zintegrowali się z frameworkami agentów, takimi jak Eliza OS i Zerepy, co ułatwia programistom budowanie autonomicznych systemów AI, które mogą weryfikować swoje własne wyniki. Nawiązali współpracę z dostawcami danych, takimi jak Delphi Digital, aby wprowadzić specjalistyczną wiedzę branżową do procesu weryfikacji. I mają już rzeczywiste aplikacje, takie jak Klok, który jest chatbotem z wbudowanym sprawdzaniem faktów, który przyciągnął ponad 500 000 użytkowników, lub Learnrite, który wykorzystuje Mirę, aby osiągnąć 98 procent precyzji w treściach edukacyjnych.
Wizja tutaj wykracza poza samo wychwytywanie błędów. Chodzi o umożliwienie systemom AI autonomicznego działania w sytuacjach, gdzie pomyłki mają realne konsekwencje. Obecnie większość aplikacji AI nadal potrzebuje osoby w pętli, aby podwójnie sprawdzić wyniki przed tym, jak cokolwiek istotnego się wydarzy. To jest w porządku w niektórych zastosowaniach, ale stanowi poważne wąskie gardło, jeśli chcesz, aby AI faktycznie automatyzowało złożone zadania. Mira buduje warstwę zaufania, która mogłaby pozwolić systemom AI podejmować decyzje i podejmować działania samodzielnie, mając pewność, że te decyzje zostały zweryfikowane przez zdecentralizowaną sieć, a nie przez jedno potencjalnie stronnicze źródło.
Gdzie to może się rozwijać w ciągu najbliższych kilku lat, jest naprawdę ekscytujące do myślenia. W miarę jak pojawiają się coraz bardziej wyspecjalizowane modele AI dla różnych dziedzin, sieć Miri może stać się standardowym sposobem, w jaki te modele udowadniają swoją niezawodność sobie nawzajem i użytkownikom. Widzimy wczesne oznaki tego w ich pracy w grach, gdzie pomagają w tworzeniu autonomicznych agentów AI, którzy mogą grać i podejmować decyzje bez stałej nadzoru. W finansach umożliwiają systemy handlowe, które mogą weryfikować analizy rynkowe przed wykonaniem transakcji. W ochronie zdrowia tworzą warstwy weryfikacyjne dla diagnostycznej AI, które mogą pomóc w wychwytywaniu błędów, zanim wpłyną na opiekę nad pacjentem.
Fundamentalnym spostrzeżeniem napędzającym to wszystko jest to, że prawda nie jest czymś, co powinno być określane przez jakąkolwiek pojedynczą władzę, niezależnie od tego, czy jest to duża firma technologiczna, agencja rządowa, czy nawet głosowanie większościowe. Prawda wynika z niezależnej weryfikacji i możliwości sprawdzenia rzeczy samodzielnie. Mira stosuje tę zasadę do systemów AI, wykorzystując technologię blockchain do stworzenia przejrzystego, audytowalnego zapisu, jak każda roszczenie zostało zweryfikowane i które modele brały udział w konsensusie. Każda weryfikacja generuje certyfikat kryptograficzny, który nie może być zmieniany ani fałszowany, pokazując dokładnie, co zostało sprawdzone i jakie były wyniki.
To ma znaczenie, ponieważ zmierzamy w kierunku świata, w którym systemy AI będą podejmować coraz więcej decyzji, które wpływają na nasze życie. Już widzimy, jak AI jest używane do zatwierdzania pożyczek, diagnoz medycznych, badań prawnych i niezliczonych innych zastosowań o wysokiej stawce. Jeśli nie możemy zaufać tym systemom, że podają prawidłowe fakty, będziemy musieli albo zaangażować człowieka w każdą decyzję, co podważa sens automatyzacji, albo zaakceptować wiele błędów jako cenę postępu. Mira oferuje trzecią drogę, w której możemy mieć korzyści z autonomicznych systemów AI bez poświęcania niezawodności.
Zespół stojący za Mirą wydaje się rozumieć, że nie budują tylko produktu, ale ustanawiają nowy prymityw, jak systemy AI wchodzą w interakcję ze światem. Tak jak TCP/IP stało się fundamentem internetu, a blockchain stworzył nowe możliwości dla cyfrowej własności, Mira próbuje stworzyć warstwę weryfikacyjną, która umożliwia zaufane AI. To ambitne, ale osiągnięcia, które już zdobyli, sugerują, że są na tropie czegoś realnego. Kiedy możesz wykazać 96 procent dokładności i 90 procent redukcji halucynacji, ludzie zaczynają zwracać uwagę.
Co również jest godne uwagi, to jak podeszli do problemu stronniczości. Wymagając konsensusu wśród różnych modeli szkolonych przez różne organizacje z różnymi perspektywami, Mira sprawia, że o wiele trudniej jest jakiejkolwiek pojedynczej wizji dominować w procesie weryfikacji. Roszczenie, które mogłoby przejść przez model szkolony głównie na zachodnich źródłach, może zostać oznaczone przez model z innymi danymi szkoleniowymi, zmuszając do bardziej złożonej oceny. To nie eliminuje stronniczości całkowicie, nic nie może tego zrobić, ale rozkłada ją i czyni widoczną, zamiast ukrywać ją za jedną autorytatywną odpowiedzią.
W miarę jak sieć rośnie, ekonomia powinna stać się bardziej robustna. Więcej użytkowników oznacza większe zapotrzebowanie na usługi weryfikacyjne, co oznacza więcej opłat wpływających do operatorów węzłów, co przyciąga więcej uczestników do uruchamiania węzłów, co zwiększa bezpieczeństwo i różnorodność sieci. To błędne koło, które nagradza wczesnych adoptujących, tworząc jednocześnie zrównoważoną wartość długoterminową. Stała podaż tokenów oznacza, że w miarę jak rośnie zapotrzebowanie na weryfikację, wartość uczestnictwa w sieci powinna wzrastać proporcjonalnie.
Patrząc na szerszy krajobraz, Mira zajmuje unikalną pozycję. Nie konkurują z OpenAI ani Anthropic ani żadną z firm budujących modele AI na granicy. Ułatwiają użyteczność wszystkich tych modeli, rozwiązując problem niezawodności, który ogranicza miejsca, w których mogą być wdrażane. Nie są też po prostu kolejnym projektem blockchainowym szukającym zastosowania. Zidentyfikowali rzeczywisty problem, halucynacje AI i stronniczość, i zbudowali techniczne rozwiązanie, które wykorzystuje mocne strony blockchaina, takie jak przejrzystość, niezmienność i zdecentralizowany konsensus, aby go rozwiązać.
Aplikacje, które zostaną zbudowane na Miri, mogą okazać się naprawdę transformacyjne. Wyobraź sobie systemy łańcucha dostaw, w których agenci AI negocjują umowy, a warunki są automatycznie weryfikowane pod kątem dokładności, zanim cokolwiek zostanie podpisane. Wyobraź sobie badania naukowe, w których przeglądy literatury AI są sprawdzane przez wiele niezależnych modeli, aby upewnić się, że żadne fałszywe roszczenia nie prześlizgną się. Wyobraź sobie usługi agregacji wiadomości, w których każde podsumowanie artykułu zostało zweryfikowane pod kątem dokładności faktów, zanim dotrze do czytelników. To nie są scenariusze science fiction. To logiczne rozszerzenia tego, co Mira już buduje.
Dla każdego, kto obserwuje skrzyżowanie AI i blockchaina, Mira reprezentuje coś naprawdę nowego. Nie tylko stosuje tokenomię kryptograficzną do usług AI, i nie tylko wykorzystuje AI, aby uczynić aplikacje blockchain bardziej inteligentnymi. Wykorzystuje zdecentralizowane, bezzaufne właściwości blockchaina, aby rozwiązać fundamentalne ograniczenie systemów AI. To znacznie trudniejszy problem techniczny, ale także taki, który ma znacznie większy potencjalny wpływ, jeśli im się uda.
Przez następne kilka lat dowiemy się, czy Mira może stać się standardową warstwą weryfikacyjną dla autonomicznego AI, czy też zostanie wyprzedzona przez konkurencję lub alternatywne podejścia. Ale kierunek, w którym zmierzają, wydaje się nieunikniony. W miarę jak systemy AI stają się bardziej zdolne i bardziej autonomiczne, będziemy potrzebować sposobów weryfikacji, że mówią nam prawdę. Robienie tego za pośrednictwem scentralizowanych władz podważa sens decentralizacji. Robienie tego za pomocą pojedynczych modeli naraża nas na ich wrodzone ograniczenia. Podejście Miri do rozproszonego konsensusu wśród różnorodnych weryfikatorów, wspierane przez zachęty ekonomiczne i dowody kryptograficzne, może być dokładnie tym rozwiązaniem, którego szukaliśmy.
\u003ct-45/\u003e \u003cm-47/\u003e \u003cc-49/\u003e
