Modele firmy OpenAI i Google DeepMind sporządzają umowy i podsumowują badania, które bezpośrednio wpływają na realne decyzje. Jednak 3-procentowy wskaźnik błędów w generowaniu ogólnego tekstu znacznie różni się od 27-procentowego wskaźnika halucynacji w przypadku skomplikowanych analiz prawnych czy medycznych. Liczba ma znaczenie tylko w zależności od tego, gdzie kończy się wyjście.
Większość systemów sztucznej inteligencji dostarcza jedno rozwiązanie i pozostawia użytkownikowi zadanie oceny jego jakości. Nie ma wbudowanej drugiej opinii ani żadnego kosztu ekonomicznego za błędy.
Mira Network celowo wprowadza tarcie. Wiele niezależnych modeli odpowiada na to samo zapytanie, stawia wartościowe depozyty i dąży do zbieżności. Jeśli zgoda osiągnie zdefiniowany próg, wynik zostaje zapisany na łańcuchu bloków.
Różnica nie polega na szybkości. W rzeczywistości uruchomienie 5 modeli w celu przeprowadzenia jednego ważnego sprawdzenia zajmuje więcej czasu niż uruchomienie 1 modelu do zwykłej odpowiedzi na rozmowę. Różnica leży w widoczności i konsekwencjach.
Konsensus staje się zasłużony, a nie przyjęty za oczywisty. Wyjścia pozostawiają stały, audytowalny ślad. Operatorzy modeli, którzy wielokrotnie odbiegają od zgody rówieśników, tracą depozyty, co wiąże wydajność z przetrwaniem.
To nie eliminuje uprzedzeń. Jeśli modele korzystają z podobnych baz danych, nadal mogą zbiegać się w tym samym błędnym rozwiązaniu. Ale zmienia to sposób ujawniania niezgodności oraz sposób mierzenia wiarygodności.
Pod mechanizmem kryje się prosta zmiana. Zamiast ufania pewności jednego systemu, użytkownicy mogą przeanalizować złożoną zgodność.
Jeśli inteligencja stanie się powszechna, weryfikacja może stać się deficytowa. Systemy, które pokazują, jak odpowiedzi zostały zdobyte – a nie tylko wygenerowane – mogą stanowić kolejną podstawę zaufania do sztucznej inteligencji. #AI
#Blockchain