Czy kiedykolwiek pytałeś chatbota o coś, a on po prostu wymyślał rzeczy z całkowitą pewnością? To nazywa się halucynacją i jest niebezpieczne. Linie lotnicze płaciły, ponieważ boty tworzyły fałszywe polityki. Prawnicy przytaczali sprawy, które nigdy nie istniały. Mira naprawia to, uruchamiając dane wyjściowe AI przez wiele modeli, które głosują na to, co jest prawdą. Dzielą roszczenia na małe kawałki i wysyłają do różnych węzłów. Jeśli wystarczająco dużo się zgadza, to przechodzi. Zredukowali błędy z 30% do około 4%. To jest warstwa weryfikacji faktów między AI a tobą. Naprawdę dzikie, szczerze mówiąc.

$MIRA #Mira @Mira - Trust Layer of AI