Ciągle myślałem o Mira Network po używaniu różnych narzędzi AI w zeszłym tygodniu
Problem nie polega na tym, że AI jest słabe
Jest zbyt pewne siebie
Odpowiada tak, jakby wiedziało wszystko
Nawet gdy nie wie
Ta pewność jest niebezpieczna, gdy systemy stają się autonomiczne
Nie możesz pozwolić agentowi działać na podstawie czegoś, co tylko brzmi poprawnie
Mira robi coś innego
Nie stara się uczynić jednego modelu doskonałym
Dzieli wyniki na twierdzenia
Każde twierdzenie jest sprawdzane przez inne niezależne modele
Potem powstaje konsensus
To bardziej przypomina audyt niż generację
Zamiast pytać, czy ufamy temu AI
Pytasz, czy to stwierdzenie może przetrwać weryfikację
Podoba mi się to ujęcie
Część blockchainowa to nie dekoracja
Publicznie zakotwicza zweryfikowane twierdzenia
Jeśli coś jest zweryfikowane, istnieje zapis
Nie tylko wewnętrzna moderacja, której nikt nie może zobaczyć
Oczywiście jest kompromis
Weryfikacja zajmuje czas
Koszty rosną
Ale niezawodność nie jest darmowa
Jeśli AI ma zarządzać kapitałem lub obsługiwać systemy lub automatyzować badania
Halucynacje nie są już zabawne
Stają się odpowiedzialnością
Mira wydaje się rozumieć to
Skupia się na warstwie odpowiedzialności
Nie na większych modelach
Nie na głośniejszych twierdzeniach
Tylko na weryfikacji
Może to mniej ekscytujące
Ale jeśli AI stanie się infrastrukturą
Weryfikacja będzie miała większe znaczenie niż kreatywność