@Mira - Trust Layer of AI ,Dwa miesiące temu pozwoliłem autonomicznemu agentowi handlowemu na zrebalansowanie małego portfela bez przeglądu ręcznego. Nic wielkiego. Tylko zamknięty eksperyment. Agent monitorował trzy pary płynności, zbierał dane o zmienności co 90 sekund i wykonywał wymiany, gdy odchylenie przekraczało 2,3 procent. Czysta logika. Testowana wstecz dobrze.
Problemem nie były transakcje.
To były uzasadnienia.
Kiedy agent wywołał zrebalansowanie, zarejestrował ślad uzasadnienia. Współczynniki pewności wyglądały na wysokie. 0.87. 0.91. Liczby, które wydają się pocieszające, dopóki nie zdasz sobie sprawy, że są wewnętrznymi opiniami. Brak zewnętrznej weryfikacji. Jeśli inny agent wykorzystałby ten wynik w dalszej kolejności, odziedziczyłby tę samą ślepą ufność.
To tam zacząłem testować Mirę.
Nie jako filozofia. Jako ograniczenie.
Zamiast pozwolić mojemu agentowi działać na podstawie własnego wyjaśnienia, wprowadziłem jego decyzję do warstwy weryfikacji Miry jako roszczenie. "Zmienność przekroczyła próg w różnych źródłach." Proste zdanie. Pod spodem, zorganizowane dane. Sieć skierowała to roszczenie do wielu modeli. Niezależna walidacja. Stakowane odpowiedzi. Przypisany wynik konsensusu.
Za pierwszym razem, gdy to uruchomiłem, opóźnienie skoczyło z około 400 milisekund do około 2.8 sekundy. To było bolesne. Maszyny negocjowały z innymi maszynami zamiast działać natychmiast. Ale coś zmieniło się w moim przepływie pracy. Mój bot wykonawczy przestał reagować na pewność pojedynczego modelu. Czekał na konsensus powyżej ustalonego progu. 0.75 zgody wśród walidatorów.
I zauważyłem coś subtelnego. Wzory niezgodności były bardziej wartościowe niż zgoda.
W jednym przypadku dwóch walidatorów zgłosiło niespójność danych. Oryginalny agent błędnie odczytał skok płynności spowodowany tymczasowym opóźnieniem oracle'a. Internally był pewny. Zewnętrznie sieć była podzielona 60/40. Ta pauza uratowała transakcję, która mogłaby stracić 1.2 procenta przy wykonaniu.
Nie katastrofalne. Ale prawdziwe.
Gdy przechodzisz od przeglądu ludzkiego do koordynacji maszyna-do-maszyny, profil ryzyka się zmienia. Nie chodzi o to, czy odpowiedź jest poprawna w izolacji. Chodzi o to, czy inny autonomiczny system może jej zaufać na tyle, aby przydzielić kapitał, odblokować zapasy lub wywołać reakcję łańcucha dostaw.
Mira zmusiła mnie, aby traktować wyniki AI jako wkład ekonomiczny.
Weryfikacja wymaga stakowania. Walidatorzy blokują wartość za pomocą swojego osądu. Ten szczegół miał większe znaczenie, niż się spodziewałem. Stworzyło to koszty związane z błędami. Moi agenci przestali negocjować z pasywnymi API. Zaczęli wchodzić w interakcje z aktorami, którzy byli zaangażowani w decyzję.
Ale to jest cięższa infrastruktura. Musiałem przeprojektować moją pętlę agenta. Zamiast generować → działać, stało się to generować → składać roszczenie → czekać → oceniać konsensus → działać. To brzmi jak drobiazg. W praktyce zmienia założenia czasowe wszędzie. Progi czasu oczekiwania. Logika ponownych prób. Obsługa błędów, gdy konsensus nie formuje się płynnie.
Były momenty, kiedy myślałem o jego wyrwaniu. Szczególnie w okresach wysokiej zmienności, kiedy sekundy mają znaczenie.
Mimo to, coś w obserwowaniu autonomicznych systemów sprawdzających się nawzajem wydawało się bliższe temu, jak działają prawdziwe gospodarki. Nie doskonała prawda. Negocjowana pewność wsparcia kosztami.
Nie jestem przekonany, że to czysto skalowalne do ultra niskich środowisk opóźnienia. Handel wysokiej częstotliwości by się śmiał z trzysekundowego okna walidacji. Ale dla umów maszyna-do-maszyny, które dotyczą zapasów, linii kredytowych lub zautomatyzowanej zgodności, to opóźnienie wydaje się mniej jak tarcie, a bardziej jak ubezpieczenie.
Co mnie teraz niepokoi, to jak łatwo pozwalamy agentom przeprowadzać transakcje na podstawie wyłącznie wewnętrznych wyników pewności. Gdy raz zobaczysz, jak niezgodność między modelami rozgrywa się w czasie rzeczywistym, pewność pojedynczego modelu wydaje się krucha.
Wciąż pozwalam niektórym agentom działać bez weryfikacji, gdy prędkość jest jedynym celem. Nie jestem w tej kwestii dogmatyczny. Ale dla wszystkiego, co angażuje wartość powyżej trywialnego progu, kieruję to przez konsensus.
Nie dlatego, że Mira gwarantuje prawdę.
Ponieważ sprawia, że maszyny wahają się. A czasami wahanie to infrastruktura.