AI nie musi stać się świadomy, aby zrujnować produkty — wystarczy, że będzie pewnie przybliżone.
Propozycja Miry jest zasadniczo taka: przestańcie się spierać o "zaufanie", zacznijcie wydawać paragony. Odpowiedź jest dzielona na explicite twierdzenia, te twierdzenia są wysyłane do niezależnych weryfikatorów, a tylko te, które spełniają określony próg, wracają z audytowalnym certyfikatem kryptograficznym pokazującym ślad weryfikacji.
Wybór projektu, na którym naprawdę mi zależy, to zachęty: weryfikatorzy muszą się martwić o bycie w błędzie, a nie tylko o szybkość. Mira opiera się na logice staking/slashing, aby uczynić "leniwe zgadywanie" irracjonalnym, co jest jedynym sposobem, aby konsensus wielomodelowy nie zamienił się w teatr odhaczania.
Dwie kruchości do obserwacji: (1) wydobywanie twierdzeń to cicha moc — źle pokrój tekst, a skończysz na "weryfikowaniu" łatwych okruchów, podczas gdy ryzykowne implikacje prześlizgują się; (2) korelacja modeli — jeśli twoi weryfikatorzy mają te same ślepe punkty, konsensus staje się po prostu zsynchronizowanym błędem.
Również, kontrola rzeczywistości w krótkim okresie: uwaga jest obecnie przyciągana przez zachęty (Binance prowadzi kampanię nagród MIRA o wartości 250 000), a nadchodzi znane zdarzenie związane z podażą (odblokowanie tokenów zaplanowane na koniec marca). To hałas, chyba że prawdziwi integratorzy zaczną traktować certyfikaty Miry jako twardą bramę: brak dowodu, brak działania.