#mira $MIRA
Przez ostatnie kilka dni czytałem trochę o Mira Network i muszę przyznać, że pomysł za tym stoi sprawił, że na chwilę się zatrzymałem.
Jedną z rzeczy, która zawsze wydawała mi się nieco dziwna w przypadku AI, jest to, jak pewnie odpowiada na pytania. Zadajesz jakieś pytanie, a w ciągu kilku sekund pojawia się odpowiedź, napisana w sposób, który brzmi pewnie i dobrze wyjaśniony. Ale każdy, kto spędził wystarczająco dużo czasu na korzystaniu z narzędzi AI, w końcu zauważa, że pewność nie zawsze oznacza, że informacje są poprawne.
Czasami odpowiedź brzmi idealnie, ale jeśli spojrzysz bliżej, kilka szczegółów nie do końca się zgadza.
W przypadku rzeczy codziennych to nie jest naprawdę problem. Ale kiedy ludzie zaczynają polegać na AI w sprawach takich jak badania kryptowalut, analizy rynkowe czy decyzje finansowe, nawet małe błędy mogą stać się ryzykowne.
Dlatego Mira przyciągnęła moją uwagę.
Z tego, co zrozumiałem do tej pory, pomysł nie polega na budowaniu kolejnego asystenta AI. Zamiast tego wydaje się, że skupia się na weryfikacji informacji, które AI produkuje. Kiedy generowana jest odpowiedź, system może podzielić ją na mniejsze twierdzenia i pozwolić różnym modelom na oddzielne ich przeglądanie. Po tym sieć może zdecydować, czy informacje rzeczywiście się zgadzają.
W pewnym sensie przypomina mi to, jak działa blockchain. Transakcje nie są uważane za wiarygodne, ponieważ jeden węzeł mówi, że są ważne. Są godne zaufania, ponieważ wiele uczestników je potwierdza.
Oczywiście to nie rozwiązuje magicznie każdego problemu z AI. Jeśli modele zajmujące się weryfikacją są zbyt podobne, mogą wciąż dojść do tej samej błędnej konkluzji. Dlatego różnorodność w sieci prawdopodobnie będzie ważna.
Niemniej jednak, ten pomysł ma sens dla mnie. Jeśli systemy AI zaczną zajmować się większymi odpowiedzialnościami w przyszłości, będą musiały istnieć mechanizmy, które podwójnie sprawdzają, co robią. Mira wydaje się badać ten kierunek.
#Mira @Mira - Trust Layer of AI $MIRA
