J'ai lu le livre blanc de Miras et une chose reste en tête, le livre blanc de Mira et le problème des hallucinations et des biais en IA. Le livre blanc de Mira dit que ce ne sont pas seulement des problèmes avec un modèle ou ses données. Ce sont des problèmes qui nécessitent une solution impliquant l'ensemble du système.

Chaque grand modèle de langage a un problème lorsqu'il est en cours d'entraînement. Si vous le rendez plus précis, il aura un biais systémique. Si vous essayez de réduire le biais, il sera moins précis. Le livre blanc de Miras m'a aidé à comprendre cela. Il dit que les hallucinations se produisent lorsqu'un modèle n'est pas précis et donne des réponses qui ne sont pas cohérentes ou qui sont trop confiantes. D'autre part, le biais est lorsqu'un modèle n'est pas précis et donne des réponses qui ne sont pas vraies.

Peu importe les données ou la puissance de calcul que vous utilisez, il y a une limite à la précision d'un modèle. Vous ne pouvez pas éliminer toutes les erreurs.

Ce compromis est important. En essayant de créer un grand modèle qui est parfait, que se passerait-il si nous considérions ce que disent les modèles d'IA comme des affirmations qui doivent être vérifiées ? Cela a du sens, surtout quand on pense à la cryptomonnaie. Vous ne devriez pas faire confiance à un modèle d'IA. Vous devriez construire un système qui vérifie ce qu'il dit.

Mira fait cela. Elle prend ce qu'un modèle d'IA dit et le décompose en affirmations. Ensuite, elle utilise des modèles pour vérifier chaque affirmation. C'est comme un test pour voir si quelque chose est vrai.

Je me souviens d'un exemple du livre blanc de Mira. Disons que nous voulons vérifier si l'affirmation "La Terre tourne autour du Soleil et la Lune tourne autour de la Terre" est vraie. Mira décomposerait cela en deux affirmations. Une affirmation concerne la Terre et le Soleil et l'autre concerne la Lune et la Terre. Chaque affirmation est envoyée à des modèles et chacun donne une réponse. Ensuite, les réponses sont combinées pour voir si la majorité des modèles sont d'accord. Si c'est le cas, Mira crée un certificat qui dit que l'affirmation est vraie. Ce certificat indique également quels modèles ont été d'accord, afin que vous sachiez qui l'a vérifié.

C'est similaire à la façon dont fonctionnent les blockchains. En faisant confiance à un registre, nous faisons confiance à de nombreux nœuds. Mira fait la même chose mais pour ce que disent les modèles d'IA. Elle utilise un système qui récompense les modèles pour leur honnêteté et les pénalise pour leur malhonnêteté.

J'aime aussi que Mira utilise différents modèles pour vérifier les affirmations. Elle ne s'appuie pas sur un seul modèle pour tout faire. C'est bien parce que différents modèles ont des forces et des faiblesses. Cela rend le système plus fiable.

L'objectif de Mira n'est pas d'être parfait. Il s'agit d'être plus fiable en utilisant des modèles pour vérifier les affirmations. Le livre blanc de Mira dit que cela peut rendre le système précis à 95 % ou plus.

Et c'est le but : il ne s'agit pas de rendre l'IA parfaite. Il s'agit de construire un système où la vérité provient de sources, pas juste d'une seule.

Mira s'inscrit parfaitement dans l'idée de la cryptomonnaie. Nous n'avons pas créé Bitcoin parce que nous voulions une banque. Nous l'avons créé parce que nous voulions un moyen de transférer de la valeur sans avoir besoin de faire confiance à quelqu'un. Mira fait la même chose mais pour la vérité. Elle dit, ne faites pas confiance à un modèle, vérifiez-le. Donnez aux modèles le pouvoir de vérifier.

C'est l'idée à laquelle je pense constamment. Mira pourrait ne pas être qu'un moyen de vérifier ce que disent les modèles d'IA. Cela pourrait faire partie de rendre l'IA fonctionnelle, par elle-même sans avoir besoin d'un contrôleur central. Cela mérite d'être suivi, peu importe ce qui arrive à son jeton.

@Mira - Trust Layer of AI #Mira $MIRA