#mira $MIRA
Nach meiner Meinung ist Mira am einfachsten zu
verstehen als „Belege für Modellausgaben.“
Es nimmt eine Antwort, zerlegt sie in atomare
Behauptungen und lässt unabhängige Betreiber
Verifizierungsmodelle ausführen, damit das Netzwerk
ein kryptografisches Zertifikat ausstellen kann, das zeigt, welche
Behauptungen den Konsens erreicht haben und welche nicht.
Die Wette ist nicht, dass ein einzelnes Modell richtig ist—
sondern dass Meinungsverschiedenheiten überprüfbar
(Behauptung für Behauptung) und wirtschaftlich kostspielig
zu fälschen sind, durch Einsätze und Strafen für
konsistent schlechtes Verhaltens beim Verifizieren.
Zwei echte Schwachstellen: Der Schritt der
Behauptungsteilung kann die Wahrheit falsch
rahmen, wenn er Abhängigkeiten fallen lässt, und „dezentralisierte
Validatoren“ können immer noch auf denselben
Modellstapeln konvergieren, daher muss Vielfalt
engineering-basiert und nicht angenommen werden.
Der praktischste Weg, den sie beschrieben haben, ist, dies in die On-Chain-Ausführung als AI-Koprozessor zu integrieren (ihre Kernel-Partnerschaft ist im Grunde diese Integrationsgeschichte).