Ein subtil, aber kritisches Problem bei der KI-Überprüfung ist der Kontextdrift. Wenn mehrere Verifier-Modelle dasselbe KI-Ergebnis bewerten, sehen sie oft nicht tatsächlich dasselbe Problem. Jedes Modell interpretiert Formulierungen, Annahmen oder Umfang leicht unterschiedlich. Das Ergebnis ist Uneinigkeit, die wie Unsicherheit über die Wahrheit aussieht, aber tatsächlich Inkonsistenz im Kontext ist.
Mira spricht dies auf struktureller Ebene an.
Bevor eine Überprüfung beginnt, transformiert Mira KI-generierte Inhalte in eine kanonische Form. Ansprüche werden isoliert, Annahmen werden klargestellt und relevanter Kontext wird ausdrücklich definiert. Dieser Prozess stellt sicher, dass jedes Verifier-Modell Eingaben erhält, die nicht nur im Text ähnlich, sondern identisch in Bedeutung und Umfang sind.
Diese Ausrichtung verändert, was Konsens darstellt. Ohne gemeinsamen Kontext ist die Übereinstimmung zwischen Modellen schwache Beweise, dass sie möglicherweise einfach in der Interpretation übereinstimmen. Mit identischem Kontext wird die Übereinstimmung bedeutungsvoll, da jedes Modell dieselbe formulierte Aussage bewertet.
Deshalb kann Mira die Überprüfung auf komplexe Inhalte wie lange Passagen, juristische Argumentationen oder Code skalieren. Wenn der Inhalt wächst, nimmt normalerweise das Kontextdrift zu. Mira stabilisiert es stattdessen.
Mira verteilt die Überprüfung nicht nur über Modelle. Zuerst stellt es sicher, dass alle Modelle dasselbe überprüfen.