Plus je passe de temps autour des outils d'IA, plus je remarque quelque chose d'étrange à leur sujet. Ce n'est pas qu'ils soient inutiles. En fait, ils sont souvent incroyablement utiles. Ils peuvent résumer de longs rapports en quelques secondes, expliquer des sujets complexes et générer des idées plus rapidement que la plupart des gens ne peuvent les écrire. Mais après les avoir utilisés longtemps, un petit doute commence à apparaître dans le fond de votre esprit.

Vous commencez à vous demander combien de ce que vous lisez est réellement correct.

Les modèles d'IA sont très doués pour sembler confiants. Parfois, trop confiants. La réponse semble soignée, la logique s'écoule bien et l'explication semble convaincante. Mais si vous vérifiez les détails de près, de temps en temps, quelque chose est légèrement faux. Peut-être qu'une statistique est erronée. Peut-être qu'une source n'existe pas. Parfois, l'information est simplement inventée sans que le modèle ne s'en rende compte.

Ce modèle est généralement décrit comme une hallucination. Mais le problème plus profond n'est pas seulement l'hallucination. C'est le fait que la plupart des systèmes d'IA aujourd'hui n'ont pas de moyen fiable de prouver si leur sortie est vraie ou non.

C'est à peu près le problème qui m'a fait prêter attention à Mira Network.

Ce qui m'a frappé chez Mira, c'est qu'il ne cherche pas à construire un modèle d'IA plus intelligent. Au lieu de cela, il se concentre sur quelque chose qui se trouve un niveau en dessous de l'intelligence elle-même. Vérification. Le protocole suppose que les systèmes d'IA continueront à produire des réponses probabilistes et que ces réponses ont besoin d'un mécanisme de validation avant de pouvoir être dignes de confiance dans des environnements plus sérieux.

La façon dont Mira aborde ce problème est assez intéressante. Au lieu de traiter une réponse d'IA comme un seul bloc d'information, le système décompose la sortie en revendications individuelles plus petites. Chaque revendication peut ensuite être examinée séparément par différents validateurs au sein du réseau.

Ces validateurs peuvent inclure des modèles d'IA indépendants ou d'autres systèmes de vérification qui analysent la revendication sous différents angles. Une fois l'évaluation effectuée, les résultats sont coordonnés par consensus blockchain. Plutôt que de faire confiance à la confiance d'un modèle, le réseau recherche un accord entre plusieurs validateurs indépendants.

Ce simple changement modifie considérablement le modèle de confiance.

Au lieu de se demander si un système d'IA est correct, le réseau se demande si plusieurs systèmes indépendants ont atteint la même conclusion. Si suffisamment de validateurs sont d'accord, la revendication devient une information vérifiée enregistrée sur la chaîne.

Ce qui rend cette approche encore plus intéressante, c'est le rôle des incitations. Les validateurs sont récompensés lorsqu'ils vérifient correctement les revendications et pénalisés lorsqu'ils approuvent des informations incorrectes. Cela crée une raison économique d'évaluer les revendications honnêtement plutôt que de simplement les faire passer.

Quand j'ai pensé pour la première fois à ce design, cela m'a fait réaliser à quelle vitesse les systèmes d'IA se dirigent vers des rôles plus autonomes. En ce moment, la plupart des outils d'IA fonctionnent encore comme des assistants. Les humains lisent les résultats et décident quoi en faire. Mais la direction de la technologie évolue clairement vers des agents capables d'exécuter des tâches automatiquement.

Ces agents pourraient gérer des opérations financières, analyser des données ou exécuter des flux de travail à travers plusieurs systèmes. Dans ces situations, l'exactitude devient beaucoup plus importante car l'information est directement liée à des actions réelles.

Si un système autonome s'appuie sur des informations incorrectes, les conséquences peuvent se propager rapidement.

C'est pourquoi la vérification commence à ressembler moins à une fonctionnalité et plus à une infrastructure.

Une autre chose qui rend Mira intéressante est qu'elle ne suppose pas que les hallucinations d'IA disparaîtront complètement. De nombreux projets parlent de rendre les modèles plus grands ou de les former sur de meilleures données comme si ces étapes élimineraient complètement les erreurs. Mira adopte une vue plus pragmatique. Elle suppose que les systèmes probabilistes porteront toujours une certaine incertitude et construit un système qui peut vérifier les sorties collectivement.

En d'autres termes, l'intelligence et la fiabilité sont considérées comme deux couches séparées.

Les modèles d'IA génèrent des réponses.

Le réseau les vérifie.

Bien sûr, l'approche comporte ses propres défis. Décomposer des sorties complexes en revendications vérifiables plus petites n'est pas trivial. Le réseau de validateurs doit rester diversifié afin que les mêmes biais n'apparaissent pas dans chaque modèle. Et le processus de vérification doit être suffisamment efficace pour que les applications puissent encore fonctionner rapidement.

Mais la direction générale semble de plus en plus pertinente à mesure que les systèmes d'IA continuent de s'étendre dans de nouveaux domaines.

À mesure que l'IA se rapproche de la prise de décisions plutôt que de simples suggestions, la demande d'informations vérifiées va probablement croître. La confiance seule ne suffira pas, surtout lorsque les machines commenceront à interagir avec les systèmes financiers, l'infrastructure et les processus de gouvernance.

C'est la partie de Mira qui attire mon attention.

Non pas parce qu'elle promet une IA plus intelligente, mais parce qu'elle pose une question plus inconfortable.

Que se passe-t-il lorsque l'intelligence est facile mais que la confiance ne l'est pas.

#Mira $MIRA @Mira - Trust Layer of AI