Kiedyś traktowałem odpowiedzi „czystej” AI za pewne. Jeśli brzmiały pewnie i dobrze się czytały, zakładałem, że są solidne. Potem zostałem oszukany przez mały szczegół, który był po prostu… wymyślony. Uciążliwą częścią nie był błąd. Chodziło o to, że nie mogłem udowodnić, co model sprawdził, co zgadł, ani dlaczego brzmiało to tak pewnie.
To jest problem, wokół którego zbudowana jest sieć Mira. Idea jest prosta: nie traktuj odpowiedzi AI jako jednego dużego bloku prawdy. Rozdziel ją na mniejsze twierdzenia, pozwól niezależnym modelom zweryfikować te twierdzenia i użyj zdecentralizowanego procesu konsensusu, aby zdecydować, co faktycznie jest prawdziwe. Kiedy sieć się zgadza, weryfikacja może być zapakowana w kryptograficzny zapis, który możesz później audytować. więc wynik nie jest tylko czytelny, jest dowodowy.
#Mira $MIRA @Mira - Trust Layer of AI

MIRA
0.0889
-1.00%
