Les outils d'IA d'aujourd'hui sont incroyablement rapides. Vous posez une question et en quelques secondes, vous obtenez une réponse longue et confiante. Mais la vitesse n'est plus vraiment le principal problème. La plus grande question est de savoir si la réponse peut réellement être fiable.
Beaucoup de systèmes d'IA semblent très sûrs même lorsque l'information n'est pas complètement précise. Cet écart entre la confiance et la fiabilité est quelque chose avec lequel l'industrie est encore en train de composer.
Lorsque je suis tombé sur Mira, l'idée derrière semblait différente de la plupart des projets d'IA que j'ai vus récemment.
Au lieu de demander aux gens de faire confiance à un seul modèle, ils construisent un système qui vérifie la réponse avant de l'accepter comme fiable. Lorsqu'une IA produit une réponse, Mira décompose cette réponse en affirmations plus petites. Ces affirmations sont ensuite examinées par plusieurs modèles indépendants à travers le réseau.
Chaque modèle examine la même déclaration et l'évalue séparément. Leurs réponses sont ensuite combinées pour atteindre une conclusion partagée. Ainsi, le résultat final ne dépend pas d'un seul modèle, mais d'un accord entre plusieurs.
J'aime cette direction car elle se concentre sur le fait de rendre l'IA plus fiable. Ils n'essaient pas seulement de rendre l'IA plus rapide ou plus grande. Ils essaient de s'assurer que les réponses peuvent réellement tenir.
Et honnêtement, cela ressemble à une couche dont l'IA a vraiment besoin.
#Mira @Mira - Trust Layer of AI
$MIRA