La plupart des systèmes d'IA aujourd'hui fonctionnent selon un modèle simple : vous demandez quelque chose, le modèle répond, et vous lui faites confiance ou vous vérifiez vous-même, la responsabilité reste à l'utilisateur, et cela ne se scala pas lorsque les systèmes d'IA commencent à effectuer des tâches plus sérieuses

Mira aborde cela différemment, en décomposant le contenu généré en affirmations individuelles et en envoyant ces affirmations via un réseau distribué de validateurs, qui peuvent être des systèmes d'IA indépendants. Ils évaluent chaque affirmation séparément, et le consensus est atteint grâce à la coordination de la blockchain et des incitations économiques.

Cela signifie que vous ne faites pas confiance à un seul modèle, vous faites confiance au processus de vérification distribué, où les validateurs ont quelque chose en jeu, et une vérification inexacte a des conséquences.

Mira suppose que les hallucinations continueront d'exister et construit autour de cette réalité, au lieu de faire semblant que des modèles plus grands élimineront complètement ce problème.

Bien sûr, il y a des défis ouverts comme la scalabilité, la latence et l'assurance de la diversité des validateurs, mais la direction semble logique. L'intelligence sans vérification ne peut pas être transférée en toute sécurité dans un environnement à haut risque.

Pour moi, Mira est moins une hyperbole de l'IA et plus une création d'un niveau de confiance qui permet aux systèmes d'IA de fonctionner avec responsabilité, et cette transition semble nécessaire, car l'autonomie augmente.@Mira - Trust Layer of AI #Mira