
Sztuczna inteligencja jest teraz częścią wielu narzędzi, których używamy na co dzień, takich jak asystenci czatu, pomocnicy badawczy, podsumowania wyszukiwania, a nawet porady prawne lub zdrowotne. Te systemy mogą dawać szybkie, przekonujące odpowiedzi, ale czasami popełniają wyraźne błędy.
W świecie technologii problem ten nazywa się halucynacjami AI. Dzieje się tak, gdy AI pewnie podaje informacje, które brzmią prawidłowo, ale są fałszywe lub wprowadzające w błąd. Te błędy nie są przypadkowymi usterkami. Występują, ponieważ modele AI tworzą tekst na podstawie wzorców, a nie na podstawie zweryfikowanych faktów.
Przykłady z rzeczywistego świata pokazują, dlaczego te kwestie mają znaczenie:
Podsumowania AI Google dostarczyły nieprawidłowych informacji medycznych, o których eksperci ostrzegali, że mogą przedstawiać niebezpieczne obrazy warunków zdrowia psychicznego i przekonywać ludzi do unikania właściwego leczenia. To skłoniło dużą organizację zdrowotną do wszczęcia dochodzenia w sprawie ryzyk związanych z prowadzeniem AI.
Prawnik z Nowego Jorku raz zacytował całkowicie wymyślone sprawy prawne w dokumencie sądowym, ponieważ narzędzie AI wymyśliło nazwy spraw i cytaty, które nie istniały.
Kolejny wyraźny przykład dotyczył chatbota, który fałszywie twierdził, że rzeczywista osoba była skazanym mordercą dzieci, co było skrajną i szkodliwą halucynacją, która doprowadziła do oficjalnych skarg.
Te przykłady dowodzą, jak AI może wydawać się pewne i autorytatywne, nawet gdy generuje niepoprawne informacje. W codziennych rozmowach może to być irytujące lub zawstydzające. W dokumentach prawnych, kontekstach opieki zdrowotnej lub publicznych systemach doradczych te błędy mogą powodować rzeczywiste szkody lub problemy prawne.
To jest problem, który @Mira - Trust Layer of AI stara się rozwiązać.
Zamiast akceptować odpowiedź AI bez krytyki, Mira dodaje warstwę weryfikacji pomiędzy AI a użytkownikiem. Kiedy AI generuje odpowiedź, Mira dzieli ją na mniejsze, faktograficzne fragmenty informacji, które można sprawdzić niezależnie. Te fragmenty są następnie przeglądane przez wielu niezależnych weryfikatorów w sieci.
Jeśli istnieje silna zgoda wśród weryfikatorów, że roszczenie jest poprawne, jest ono oznaczane jako zweryfikowane. Jeśli nie, roszczenie może być oznaczone jako fałszywe lub odrzucone. Kluczową różnicą jest to, że weryfikacja nie opiera się na jednym modelu AI lub autorytecie. Opiera się na rozproszonej ocenie i zgodzie.
Kolejnym ważnym elementem projektu Mira jest wykorzystanie zachęt ekonomicznych. Weryfikatorzy muszą stawiać $MIRA tokeny, aby wziąć udział w sieci. Jeśli zachowują się uczciwie i dokonują dokładnych sprawdzeń, otrzymują nagrody. Jeśli źle weryfikują lub podejmują niedbałe decyzje, ich stawka może zostać zmniejszona. Tworzy to system, w którym odpowiedzialność i staranna ocena są wbudowane w proces.
Mira nie stara się zastąpić samych modeli AI. Nie sprawia, że AI jest mądrzejsze ani nie zmienia sposobu, w jaki modele generują tekst. To, co robi, to wprowadzenie uporządkowanego sposobu weryfikacji wyników przed ich działaniem lub zaufaniem, szczególnie w sytuacjach, gdzie dokładność ma naprawdę znaczenie.
Halucynacje AI nie są marginalnym problemem. Występują na różnych platformach i mogą mieć realne konsekwencje. Systemy takie jak Mira próbują zmniejszyć to ryzyko, dodając dodatkową warstwę weryfikacji, dążąc do wiarygodnych wyników, a nie tylko prawdopodobnych.
#Mira #Miranetwork #Mira #AI #Decentralization #Blockchain #Web3 #MIRA
