#mira $MIRA @Mira - Trust Layer of AI

Je ne fais que dire que cette chose du Mira Network est comme un drame technologique super sérieux.
Il dit qu'il résout des problèmes d'IA et tout ce genre de mots importants. Essentiellement, l'IA fait parfois des erreurs, comme dire des choses au hasard ou agir intelligemment quand ce n'est pas le cas. Donc, ces personnes ont créé ce projet pour résoudre ce problème.
Ils disent qu'ils vont vérifier les réponses de l'IA comme des copies d'examen. Non seulement une machine décidera, mais de nombreux systèmes l'examineront et diront “oui d'accord” ou “non faux.” Ça ressemble à une étude de groupe mais pour des robots.
Ils parlent aussi de blockchain et de vérification et tout ce langage lourd. Essentiellement, cela signifie qu'ils ne veulent pas qu'un seul patron contrôle tout. Au lieu de cela, ils veulent que de nombreux ordinateurs soient d'accord ensemble avant de dire que quelque chose est correct.
En termes simples, ils essaient de rendre l'IA plus fiable afin que les gens puissent l'utiliser sans craindre de mauvaises réponses.
C'est tout. Grand concept, grands mots, mais l'idée est juste :
Vérifiez les réponses correctement et ne faites pas confiance aveuglément.