Pamiętam pierwszy raz, kiedy ktoś wspomniał o @Mira - Trust Layer of AI . Moim instynktem było zignorować to. Brzmiało to jak jeden z tych pomysłów, które próbują naprawić jeden skomplikowany system innym, jeszcze bardziej skomplikowanym.
Jednak im dłużej obserwujesz, jak AI jest używane w rzeczywistych środowiskach, tym trudniej jest zignorować leżący u podstaw problem. Modele halucynują. Produkują pewne odpowiedzi, które czasami są subtelnie błędne. W aplikacjach konsumenckich to irytujące. W takich miejscach jak finanse, opieka zdrowotna czy zgodność, staje się to czymś zupełnie innym — odpowiedzialnością.
Co sprawia, że problem jest kłopotliwy, to fakt, że większość rozwiązań polega na zaufaniu do jednego organu. Jeden model sprawdzający inny model. Jedna firma twierdząca, że ich system jest bardziej niezawodny niż reszta. To działa, dopóki zachęty się nie zmienią lub błędy nie rozprzestrzeniają się szybciej, niż ludzie mogą je audytować.
To tutaj coś takiego jak #Mira Network zaczyna mieć dla mnie większy sens. Nie jako „produkt AI”, ale jako infrastruktura. Pomysł podziału wyników AI na weryfikowalne twierdzenia i posiadania wielu niezależnych modeli, które je oceniają, wydaje się bliższy temu, jak już działają krytyczne systemy: redundancja, wzajemne sprawdzanie i odpowiedzialność.
Część związana z blockchainem ma mniejsze znaczenie jako technologia, a bardziej jako warstwa koordynacyjna — sposób rejestrowania, jak weryfikacja się odbyła i kto w niej uczestniczył.
Jeśli to zadziała, nie będzie to dlatego, że brzmi futurystycznie. Będzie to dlatego, że instytucje, które już nie ufają AI, w końcu mają sposób na jego użycie bez ślepego zaufania do niego.