Porównywałem odpowiedzi dwóch różnych narzędzi AI na początku tego tygodnia. Obie odpowiedzi wyglądały na dopracowane i pewne. Ale kiedy sprawdziłem szczegół w jednym z nich, okazało się, że model cicho wymyślił źródło. Nic dramatycznego, tylko mała halucynacja. Mimo to, skłoniło mnie to do myślenia o tym, jak często to się prawdopodobnie zdarza, nie zauważając tego. To właśnie wtedy "Mira Network" staje się interesujące...
Mira koncentruje się na niezawodności, a nie na surowej mocy AI. Zamiast ufać odpowiedzi jednego modelu, protokół traktuje "wynik AI" jako coś, co wymaga weryfikacji. Gdy model generuje treść, odpowiedź jest rozkładana na mniejsze roszczenia. Te roszczenia są następnie sprawdzane w sieci niezależnych modeli AI i weryfikatorów.
Rezultat jest bliższy "konsensowi wokół informacji" niż po prostu akceptowaniu tego, co wyprodukował jeden system...
Gdy te roszczenia przejdą weryfikację, wyniki mogą być zakotwiczone na łańcuchu. Tworzy to przejrzysty zapis pokazujący, jak informacje zostały zweryfikowane, co zmniejsza zależność od jednego dostawcy lub scentralizowanego systemu.
Co mi się podoba w tym podejściu, to to, że Mira nie zakłada, że AI nagle przestanie popełniać błędy. Zamiast tego buduje infrastrukturę, która pomaga filtrować te błędy. W tym sensie protokół mniej koncentruje się na budowaniu mądrzejszego AI, a bardziej na budowaniu "infrastruktury zaufania dla wiedzy generowanej przez AI."