Wewnątrz sieci Mira - Przełamywanie odpowiedzi AI na weryfikowalne roszczenia on-chain

Większość odpowiedzi AI przychodzi jako jeden blok tekstu. Wniosek jest widoczny, ale rozumowanie pod nim jest głównie ukryte. To sprawia, że trudno ocenić, skąd tak naprawdę pochodzi odpowiedź.

Sieć Mira bada cichszą alternatywę. Zamiast jednej nieprzejrzystej odpowiedzi, odpowiedź może być podzielona na mniejsze roszczenia. Na przykład, jedna odpowiedź może zawierać 3 kroki rozumowania - każdy związany z konkretnym stwierdzeniem.

Te roszczenia mogą być następnie rejestrowane on-chain i sprawdzane indywidualnie. Niektóre mogą utrzymać się pod przeglądem, podczas gdy inne mogą być kwestionowane.

Z biegiem czasu systemy, które produkują roszczenia, które wielokrotnie się weryfikują, mogą stopniowo zdobywać zaufanie. Idea nie polega na ogłoszeniu prawdy natychmiast, ale na zbudowaniu fundamentu, w którym wyniki AI mogą być badane kawałek po kawałku.

Wciąż istnieje niepewność co do tego, jak weryfikacja będzie się skalować w dużych ilościach odpowiedzi AI. Ale struktura zmienia coś ważnego - wiedza AI staje się śledzalna, a nie nieprzejrzysta.

@Mira - Trust Layer of AI $MIRA #Mira