#mira $MIRA @Mira - Trust Layer of AI Pamiętam czas, kiedy większość rozmów na temat weryfikacji faktów przez AI traktowała to jako drobny dodatek. Coś, co uruchamiasz później, gdy model już wygenerował swoją odpowiedź. Jednak im więcej czasu spędzałem, przyglądając się temu, jak te systemy rzeczywiście się zachowują, tym bardziej ta idea zaczęła wydawać się zbyt wąska w stosunku do rozmiaru problemu.
Jeśli AI ma działać jako agenci, przenosić fundusze lub podejmować zautomatyzowane decyzje na własną rękę, to uruchamianie szybkiej weryfikacji faktów po pojawieniu się odpowiedzi wydaje się już niewystarczające.
To właśnie tutaj dłuższa wizja za Mira zaczyna stawać się interesująca. Protokół zaczyna się od weryfikacji poprzez rozbicie odpowiedzi AI na mniejsze części i pozwolenie innym niezależnym modelom na przeglądanie tych twierdzeń. Poprzez proces konsensusu zdecentralizowanego, sieć ocenia, co się utrzymuje. W końcu produkuje to dowód kryptograficzny, który pokazuje, co system wspólnie uznał za ważne.
Jednak koncepcja wykracza poza prostą weryfikację faktów. Większa idea polega na zbudowaniu sieci, w której modele AI nieustannie badają wzajemnie swoje wyniki. Jeśli to działa, mogłoby stworzyć środowisko, w którym autonomiczne systemy AI działają z znacznie mniejszą liczbą błędów. Zamiast polegać na niezawodności pojedynczego modelu, zaufanie zaczyna się formować poprzez wielokrotne modele przeglądające i weryfikujące każdy krok po drodze.
Mówiąc prosto, Mira nie koncentruje się tylko na dostrzeganiu błędów po ich wcześniejszym wpadnięciu. Większa idea polega na ukształtowaniu środowiska, w którym decyzje AI są sprawdzane jako część samego procesu. W takim układzie, autonomiczne systemy nie działałyby tylko na podstawie pewności. Postąpiłyby naprzód z czymś silniejszym, faktycznym dowodem stojącym za ich działaniami.