J'ai comparé les réponses de deux outils d'IA différents plus tôt cette semaine. Les deux réponses semblaient soignées et confiantes. Mais lorsque j'ai vérifié un détail dans l'une d'elles, il s'est avéré que le modèle avait discrètement inventé une source. Rien de dramatique, juste une petite hallucination. Pourtant, cela m'a fait réfléchir à la fréquence à laquelle cela se produit probablement sans que personne ne s'en rende compte. C'est là que "Mira Network" devient intéressant...
Mira se concentre sur la fiabilité plutôt que sur la puissance brute de l'IA. Au lieu de faire confiance à la réponse d'un seul modèle, le protocole considère la "sortie de l'IA" comme quelque chose qui nécessite une vérification. Lorsqu'un modèle génère du contenu, la réponse est décomposée en revendications plus petites. Ces revendications sont ensuite vérifiées à travers un réseau de modèles d'IA et de validateurs indépendants.
Le résultat est plus proche du "consensus autour de l'information" plutôt que d'accepter simplement ce qu'un système a produit...
Une fois que ces revendications passent la vérification, les résultats peuvent être ancrés sur la chaîne. Cela crée un enregistrement transparent montrant comment l'information a été validée, ce qui réduit la dépendance à un seul fournisseur ou système centralisé.
Ce que j'aime dans cette approche, c'est que Mira ne suppose pas que l'IA va soudainement cesser de faire des erreurs. Au lieu de cela, elle construit une infrastructure qui aide à filtrer ces erreurs. En ce sens, le protocole est moins axé sur la construction d'une IA plus intelligente et plus sur la construction d'une "infrastructure de confiance pour la connaissance générée par l'IA."