Récemment, j'ai mené une expérience simple : j'ai posé la même question à plusieurs systèmes d'IA et comparé les réponses. Les formulations différaient, mais presque toutes sonnaient avec confiance. Le problème est que la confiance ne signifie pas toujours justesse.
L'IA est douée pour produire des réponses, mais beaucoup moins pour en confirmer la véracité. De plus, l'industrie elle-même discute souvent de la puissance des modèles, de la vitesse ou de l'échelle des données, plutôt que de la manière de vérifier le résultat.
À un moment donné, une question simple se pose : si les systèmes donnent de plus en plus des recommandations, comment être sûr que leurs conclusions peuvent être vérifiées ? C'est ici que l'approche #Mira m'a semblé intéressante. Le projet n'essaie pas de créer un autre modèle d'IA. Au lieu de cela, il construit une couche de vérification au-dessus des systèmes déjà existants.
L'idée semble assez simple : les réponses de l'IA peuvent passer par une vérification indépendante à travers un réseau de participants qui confirment ou contestent le résultat. En fin de compte, il devient important non seulement de donner la réponse, mais aussi de vérifier le processus de vérification.
En substance, il s'agit de créer une infrastructure de confiance. Peut-être que la principale valeur de tels systèmes est d'apprendre à mieux vérifier l'information.