Będę szczery: kiedyś myślałem, że wydobycie to tylko „zużywanie energii, rozwiązywanie bezsensownych równań, zbieranie nagród.”

Mira przewraca tę historię.

Zamiast marnować moc obliczeniową na losowe zagadki, węzeł Mira musi wykonać Znaczący Dowód Pracy (mPoW): uruchamia modele AI do audytowania roszczeń AI. Wynik jest dzielony na Atomowe Asercje (małe, weryfikowalne stwierdzenia), a następnie wiele niezależnych modeli je weryfikuje, a sieć agreguje wynik, który możesz faktycznie audytować. Zgłoszone testy mówią, że taki rodzaj wielomodelowej weryfikacji może zwiększyć niezawodność do około 96% (kontekst ma znaczenie, ale kierunek jest jasny).

A ekonomia też ma znaczenie: jeśli jest duża $MIRA obligacja / stawka na szali (ludzie wspominają liczby takie jak 100k $MIRA), kłamstwo przestaje być sprytne i zaczyna być kosztowne. Jeśli stanie się normalne, że odpowiedzi AI muszą być poparte weryfikacją + rzeczywistymi karami, widzimy przesunięcie od „ufaj modelowi” do „udowodnij to.”

"Dowód powinien znaczyć więcej niż zmarnowana energia: powinien oznaczać, że coś zostało zweryfikowane."

Więc tak… Nie sprzedają tylko kolejnej narracji AI. Próbują zbudować warstwę zaufania, która sprawia, że oszustwo jest statystycznie trudne i finansowo głupie.

Czy myślisz, że to początek użytecznego wydobycia, czy tylko sprytniejsza powłoka na tej samej grze?

Jestem sceptyczny z natury, ale powiem to: jeśli Mira nadal przekształca wyjścia AI w coś, co można zweryfikować, przesuwa całą przestrzeń do przodu — ponieważ w końcu przyszłość nie nagrodzi najgłośniejszych roszczeń, nagrodzi te, które można udowodnić.

#Mira @Mira - Trust Layer of AI