@Mira - Trust Layer of AI Przestałem być pod wrażeniem, jak płynnie brzmi AI. Płynność jest teraz łatwa. To, co zaczynam doceniać, to co się dzieje po tym, jak model udzieli odpowiedzi.
Większość wyników AI jest traktowana jak wnioski. Ale naprawdę są to zbiory twierdzeń – małe asercje opakowane w pewny język. A pewność jest tania.
Co przykuło moją uwagę w Mira Network, to że nie stara się sprawić, by AI było mniej błędne. Zakłada, że AI czasami będzie błędne i buduje system, w którym wyniki muszą przetrwać kontrolę, zanim zostaną zaufał. Twierdzenia są weryfikowane przez niezależne modele, wyniki są zakotwiczone przez konsensus blockchain, a zachęty nagradzają wykrywanie błędów.
Dodaje to tarcie. Dodaje koszty. Prawdopodobnie dodaje opóźnienia. Ale wprowadza również coś, czego brakuje większości systemów AI: strukturalny niepokój.
Prawdziwe pytanie nie brzmi, czy to czyni AI doskonałym. Chodzi o to, czy zmuszanie AI do argumentowania z innym AI przed działaniem prowadzi do mierzalnego spadku kosztownych błędów.
Jeśli AI ma wykonywać, a nie tylko sugerować, to weryfikacja może przestać być opcjonalna.
I to jest zmiana, którą obserwuję.
$MIRA @Mira - Trust Layer of AI #Mira
