Póki wszyscy zachwycają się "SI zrobi nam 100x", ja patrzę na coś innego - jak często on kłamie pewnie. Teraz średnia halucynacja w top-modelach SI wynosi 12%-18% nawet w prostych faktach. Zszokowani? Ja też, szczerze mówiąc.
@Mira - Trust Layer of AI robi po innej stronie. Nie próbuje wychować jednego modelu, aby nie kłamał. Zamiast tego - uruchamia równolegle 15-30 różnych modeli i patrzy, gdzie się zgadzają. Gdzie się zgadzają - tam jest prawda z prawdopodobieństwem +95%. Gdzie się różnią - stawiają czerwony znaczek.
Podoba mi się ta "podłość": zamiast walczyć z naturą SI (a on zawsze będzie wymyślał), po prostu stawiają jego odpowiedzi pod krzyżowy przesłuchanie.
I to działa. Nie magia, a statystyka + ekonomia.
Kto postawi $MIRA i puści swój model na weryfikację - otrzymuje nagrodę. Kto kłamie lub zgaduje - traci stawkę. Prosto i surowo.
Może, to i jest ten trust layer, na który Web3 tak długo czekał dla autonomicznych agentów. Bo bez niego wszystkie te "AI w DeFi" pozostają ładnym demo.
#Mira