@Mira - Trust Layer of AI Przez jakiś czas ciągle wracałem do jednej idei stojącej za siecią Mira. Nie dokładnie mechanika, ale założenie, które się pod tym kryje: może weryfikacja powinna nastąpić przed szybkością w systemach AI. To nieco inny punkt wyjścia niż większość narzędzi, których używałem.

W praktyce AI zazwyczaj zachowuje się jak maszyna do przewidywania. Zadajesz pytanie, generuje najbardziej prawdopodobną odpowiedź, a interakcja kończy się tam. Większość czasu to w porządku. Mimo to, po dłuższej pracy z tymi systemami, zaczyna pojawiać się mały dyskomfort. Odpowiedzi brzmią pewnie. Ten ton pewności łatwo się przenosi. Zaufanie nie.

Mira obsługuje wyniki inaczej. Odpowiedź nie jest traktowana jak ostateczny obiekt. To bardziej jak surowiec. Odpowiedź dzieli się na mniejsze roszczenia. Inne modele przyglądają się tym częściom. Niektóre z nich się zgadzają. Inne się sprzeciwiają. To, co zostaje zapisane, to wynik, który utrzymuje się w tym procesie.

Obserwowanie, jak ta idea się rozwija, sprawiło, że zacząłem myśleć o tym, jak ludzie właściwie radzą sobie z informacjami. Rzadko akceptując pierwszą rzecz, którą słyszą. Zazwyczaj sprawdzamy inne źródło. Czasami porównujemy. Okazjonalnie zamienia się to w argument, który trwa dłużej niż się spodziewano.

Część interesująca, przynajmniej dla mnie, to nie tylko poprawiona niezawodność. To zmiana w tym, jak kształtuje się zaufanie. Kiedy kilka systemów bierze udział w weryfikacji tego samego roszczenia, odpowiedź zaczyna wydawać się mniej jak przewidywanie, a bardziej jak coś, co zostało wynegocjowane w sieci.

Może to tam rzeczy cicho się zmieniają. Systemy AI przestają być silnikami produkującymi odpowiedzi i zaczynają zachowywać się bardziej jak środowiska, w których odpowiedzi są testowane. Nie jestem jeszcze pewien, do czego to ostatecznie prowadzi. Ale sprawia, że idea zweryfikowanych wyników AI wydaje się mniej abstrakcyjna.

#Mira $MIRA

MIRA
MIRA
0.0874
+0.34%