#mira
Mira tworzy identyczne dane wejściowe dla modeli weryfikacyjnych
Jednym z ukrytych problemów w weryfikacji AI jest to, że różne modele często nie oceniają dokładnie tego samego zadania, nawet gdy otrzymują ten sam tekst. Małe różnice w interpretacji, założonym kontekście lub zakresie mogą zmienić to, co każdy weryfikator uważa za oceniane.
Dlatego niezgodność między modelami nie zawsze dotyczy prawdy.
Często chodzi o niezgodność zadań.
Mira zajmuje się tym, zanim weryfikacja w ogóle się rozpocznie.
Zamiast wysyłać surowe wyjście AI do wielu weryfikatorów, Mira najpierw przekształca je w kanoniczną, strukturalną formę. Roszczenia są izolowane, założenia są wyjaśniane, a kontekst jest wyraźnie definiowany. Wynikiem tego jest to, że każdy model weryfikatora otrzymuje dane wejściowe, które nie tylko są podobne w sformułowaniu, ale identyczne w znaczeniu i zakresie.
To zmienia to, co reprezentuje konsensus. Zgoda teraz odzwierciedla ocenę tego samego zadania, a nie nałożonych interpretacji luźno podzielonego tekstu.
Mira nie tylko rozdziela weryfikację między modelami.
Zapewnia, że wszystkie modele najpierw weryfikują to samo.
@Mira - Trust Layer of AI $MIRA
