1. Wprowadzenie
Sztuczna inteligencja (AI) jest często porównywana do wielkich wynalazków, takich jak prasa drukarska i internet. Ma moc zmieniania społeczeństwa na wiele sposobów. Jednak dzisiejsze systemy AI nadal napotykają poważne ograniczenia. Mogą produkować kreatywne i realistyczne odpowiedzi, ale często popełniają błędy. Te błędy uniemożliwiają AI samodzielne działanie w ważnych sytuacjach bez nadzoru człowieka.
Istnieją dwa główne rodzaje błędów w systemach AI: halucynacje i stronniczość. Halucynacja występuje, gdy model tworzy fałszywe lub niepoparte informacje. Stronniczość pojawia się, gdy model wykazuje systematyczne błędy z powodu danych używanych podczas szkolenia. Te dwa problemy tworzą minimalną stopę błędów, której żaden pojedynczy model nie może w pełni usunąć.

Gdy deweloperzy próbują zmniejszyć halucynacje, starannie wybierając dane szkoleniowe, mogą zwiększyć stronniczość. Gdy próbują zmniejszyć stronniczość, używając bardziej różnorodnych danych, halucynacje mogą wzrosnąć. Tworzy to trwały kompromis między precyzją a dokładnością. Nawet duże i zaawansowane modele nie mogą całkowicie uciec od tej granicy.
Modele dostosowane mogą dobrze działać w wąskich obszarach. Jednak często mają trudności z nauką nowej wiedzy i radzeniem sobie z nieoczekiwanymi sytuacjami. To czyni je nieodpowiednimi dla w pełni autonomicznych systemów, które muszą działać w złożonych rzeczywistych środowiskach.
Główna idea $MIRA a polega na tym, że żaden pojedynczy model AI nie może rozwiązać tego problemu niezawodności samodzielnie. Zamiast tego, wiele modeli współpracujących razem przez zdecentralizowany konsensus może zmniejszyć błędy. Dzięki łączeniu różnych modeli z różnymi perspektywami, system może filtrować halucynacje i równoważyć stronniczość.
2. Architektura sieci
Sieć Mira weryfikuje treści generowane przez AI, używając zdecentralizowanego systemu. Zamiast ufać jednej centralnej władzy, korzysta z wielu niezależnych węzłów, które uruchamiają różne modele AI.
Kluczową innowacją jest przekształcanie treści. Gdy użytkownik przesyła treść do weryfikacji, system dzieli ją na mniejsze, jasne i weryfikowalne roszczenia. Na przykład złożone stwierdzenie można podzielić na oddzielne roszczenia faktyczne. Każde roszczenie jest weryfikowane niezależnie.
Ten proces zapewnia, że wszystkie modele weryfikujące badają te same jasno określone pytania. Bez tej transformacji różne modele mogą interpretować tę samą treść na różne sposoby.
Po transformacji sieć rozdziela roszczenia do wielu węzłów. Każdy węzeł analizuje roszczenie i przesyła swoją odpowiedź. Sieć następnie agreguje odpowiedzi i stosuje regułę konsensusu, taką jak zgoda większości lub inny z góry ustalony próg.
Gdy osiągnięto konsensus, system generuje certyfikat kryptograficzny. Ten certyfikat rejestruje wynik weryfikacji i dowodzi, że proces został zakończony zgodnie z protokołem.
Przepływ pracy przebiega według tych kroków:
1. Użytkownik przesyła treść i definiuje wymagania weryfikacji.
2. System przekształca treść w roszczenia.
3. Roszczenia są rozprowadzane do węzłów.
4. Węzły weryfikują i przesyłają odpowiedzi.
5. Sieć agreguje wyniki i osiąga konsensus.
6. Certyfikat jest wydawany i zwracany użytkownikowi.
Ten projekt zapewnia, że żaden pojedynczy aktor nie może kontrolować wyniku.
3. Model zabezpieczeń ekonomicznych
Mira łączy zasady Proof-of-Work (PoW) i Proof-of-Stake (PoS). Jednak zamiast rozwiązywać bezsensowne zagadki, węzły wykonują prawdziwe zadania weryfikacyjne.
Ponieważ zadania weryfikacyjne mogą używać formatów wielokrotnego wyboru, losowe zgadywanie może czasami prowadzić do poprawnych odpowiedzi. Aby temu zapobiec, węzły muszą stawiać wartość, aby uczestniczyć. Jeśli węzeł zachowuje się nieuczciwie lub często nie zgadza się z konsensusem bez uzasadnienia, jego stawka może być zmniejszona poprzez kary za zaniżenie.
Tworzy to silne zachęty ekonomiczne do uczciwego zachowania. Manipulowanie systemem staje się kosztowne i nieracjonalne.
Model opiera się na trzech zasadach:
Racjonalne zachowanie ekonomiczne uczestników.
Kontrola większości przez uczciwych uczestników.
Różnorodność modeli w celu zmniejszenia stronniczości.
W miarę jak sieć rośnie, opłaty płacone przez użytkowników nagradzają operatorów węzłów. Zwiększona uczestnictwo poprawia różnorodność i bezpieczeństwo. Z biegiem czasu system staje się bardziej odporny.
Sieć wykorzystuje również duplikację i shardowanie. W początkowych etapach wiele instancji tego samego modelu weryfikuje zadania, aby wykryć złośliwe zachowanie. Później zadania są losowo rozdzielane, aby zmniejszyć ryzyko zmowy.
4. Prywatność
Prywatność jest centralną zasadą projektowania. Gdy treść jest przekształcana w mniejsze roszczenia, te roszczenia są losowo rozdzielane. Żaden pojedynczy węzeł nie może zrekonstruować pełnej oryginalnej treści.
Odpowiedzi węzłów pozostają prywatne, aż do osiągnięcia konsensusu. Ostateczny certyfikat zawiera tylko niezbędne szczegóły weryfikacji.
W miarę jak system ewoluuje, dodawane będą bardziej zdecentralizowane i kryptograficzne zabezpieczenia prywatności. Celem jest utrzymanie silnych gwarancji prywatności przy zachowaniu integralności weryfikacji.
5. Ewolucja sieci
Mira zaczyna od obszarów o wysokiej stawce, takich jak opieka zdrowotna, prawo i finanse, gdzie dokładność faktów jest kluczowa. Z biegiem czasu rozszerzy się, aby wspierać kod, dane strukturalne i multimedia.
Długoterminowa wizja wykracza poza weryfikację. Sieć ma na celu stworzenie modeli podstawowych, w których weryfikacja jest wbudowana bezpośrednio w proces generacji. Zamiast najpierw generować, a potem weryfikować, system będzie generować już zweryfikowane wyniki.
Rosnąca baza danych zweryfikowanych roszczeń może również wspierać inne aplikacje, takie jak systemy weryfikacji faktów i usługi wyroczni.
6. Wnioski
Obecne systemy AI nie mogą niezawodnie działać bez nadzoru ludzkiego z powodu halucynacji i stronniczości. Mira zajmuje się tym ograniczeniem poprzez zdecentralizowaną weryfikację, zachęty ekonomiczne i rozproszony konsensus.
Łącząc wiele modeli i dostosowując zachęty poprzez stawianie, sieć sprawia, że nieuczciwe zachowanie staje się kosztowne i niepraktyczne. Z biegiem czasu system ten może wspierać AI, które działa autonomicznie z wysoką niezawodnością.
Mira reprezentuje nowy model zaufanej infrastruktury AI, w której weryfikacja jest zdecentralizowana, zabezpieczona ekonomicznie i zintegrowana w przyszłość generacji AI.