Mira Utrzymuje Identyczny Kontekst w Modelach do Weryfikacji na Dużą Skalę
Jednym z subtelnych, ale krytycznych problemów w weryfikacji AI jest dryf kontekstowy. Kiedy wiele modeli weryfikujących ocenia ten sam wynik AI, często nie widzą dokładnie tego samego problemu. Każdy model interpretuje sformułowania, założenia lub zakres nieco inaczej. Efektem jest niezgodność, która wygląda jak niepewność co do prawdy, ale w rzeczywistości jest niespójnością w kontekście.
Mira zajmuje się tym na poziomie strukturalnym.
Zanim rozpocznie się jakakolwiek weryfikacja, Mira przekształca wygenerowaną przez AI treść w formę kanoniczną. Twierdzenia są izolowane, założenia są wyjaśniane, a odpowiedni kontekst jest wyraźnie definiowany. Ten proces zapewnia, że każdy model weryfikujący otrzymuje dane wejściowe, które nie tylko są podobne w tekście, ale identyczne w znaczeniu i zakresie.
To wyrównanie zmienia to, co reprezentuje konsensus. Bez wspólnego kontekstu, zgoda między modelami jest słabym dowodem, że mogą one po prostu pokrywać się w interpretacji. Przy identycznym kontekście zgoda staje się znacząca, ponieważ każdy model ocenia to samo sformułowane stwierdzenie.
Dlatego Mira może skalować weryfikację do złożonej treści, takiej jak długie fragmenty, rozumowanie prawne czy kod. W miarę jak treść rośnie, dryf kontekstowy zazwyczaj się zwiększa. Mira stabilizuje go zamiast tego.
Mira nie tylko rozprowadza weryfikację między modelami. Najpierw upewnia się, że wszystkie modele weryfikują to samo.