Tu pourrais ne pas y croire.

J'ai failli mourir d'une colère provoquée par une IA.

Voici la situation : je voulais écrire un article approfondi sur Fabric et demander à Gemini Pro de m'aider à rechercher des informations. Je lui ai même dit spécifiquement : chaque point clé doit indiquer le numéro de page du livre blanc, je dois vérifier.

Du coup, il m'a listé plein de choses :

« Voir le module de protection contre l'illusion de la section 7.3 »
« La page 15 du livre blanc explique en détail »
« Circuit d'empathie des robots de la section 4.2 »

J'ai ouvert le livre blanc, page par page.

Pas du tout.

La section 7.3 n'existe pas, la page 15 est blanche, la section 4.2 parle de l'architecture technique, et n'a rien à voir avec "l'empathie".

Gemini dit des choses absurdes en ouvrant les yeux.

Et il parle avec une telle confiance, comme un escroc sérieux.

C'est le mot le plus terrifiant dans le domaine de l'IA : hallucination.

Auparavant, tout le monde pensait que les hallucinations de l'IA n'étaient qu'une blague.

Les avocats utilisent l'IA pour rédiger des plaintes, l'IA citant 6 précédents inexistants, et le juge a infligé une amende. L'IA financière a fabriqué de faux rapports financiers, les traders ont acheté en conséquence et ont perdu des millions. Tout le monde a ri en disant : cet IA est vraiment drôle.

Mais avez-vous déjà pensé -

Que se passerait-il si cette IA n'était plus un robot de discussion, mais celui qui se trouve devant votre porte pour réparer des circuits, livrer des repas et s'occuper des personnes âgées ?

Il a connecté le fil neutre comme s'il s'agissait du fil chaud, et votre maison prend feu.

Il a mal noté la dose de médicament, et vos parents ont des problèmes.

Il hallucine au bord de la route, pensant qu'il n'a pas besoin de s'arrêter au feu rouge -

Les hallucinations dans les discussions peuvent vous mettre mal à l'aise, mais les hallucinations des robots physiques peuvent vous coûter la vie.

C'est la raison pour laquelle j'ai soudainement compris Fabric.

@FabricFoundation ne vise pas à créer une IA plus intelligente.

Mais à construire un système de confiance de robots qui 'n'osent jamais halluciner'.

Comment cela a-t-il été fait ?

D'abord, installez des 'applications' sur le robot, et non un 'cerveau'.

Les robots traditionnels sont des boîtes noires : ce qu'ils pensent à l'intérieur, vous ne le savez pas et vous ne pouvez pas le changer.

Fabric a décomposé les compétences des robots en 'Skill Chips' modulaires - comme si vous téléchargiez des applications sur votre téléphone.

Vous voulez qu'il répare des circuits ? Installez un kit d'électricien.
Vous voulez qu'il s'occupe des personnes âgées ? Installez un kit de soins.
Vous pouvez également les désinstaller après utilisation.

Le plus crucial est qu'un robot apprenant une nouvelle compétence en Californie peut la partager avec tous ses semblables dans le monde en quelques secondes.

Les risques d'hallucination ont été dissociés - même si un module de compétence a un petit problème, cela n'affecte qu'une mission spécifique et ne contamine pas l'ensemble du système.

Deuxièmement, ouvrez une 'salle de diffusion en direct' pour le robot, permettant à toute l'humanité d'être des surveillants.

Fabric a créé un Observatoire Mondial des Robots.

En d'autres termes : chaque robot en service est en direct.

Les données des capteurs, le processus de décision, les trajectoires d'action, tout le monde peut les voir en temps réel.

Vous pensez qu'il a tort ? Vous pouvez lui donner une note basse, envoyer un message vocal pour corriger ou soumettre un rapport.

Tous les retours sont enregistrés sur la chaîne, non modifiables.

Les robots performants reçoivent de bonnes notes de la communauté, obtiennent plus de missions et gagnent plus d'argent.

Les robots ayant des hallucinations reçoivent des notes basses de la communauté, et l'opérateur perd directement de l'argent.

Une fois qu'une hallucination apparaît, elle est immédiatement attrapée, et le prix à payer est une perte d'argent réel.

Troisièmement, faites 'déposer un dépôt' au robot, s'il veut raconter n'importe quoi, il fait faillite.

L'opérateur veut que le robot soit en ligne ? Il doit d'abord mettre en jeu une somme de $ROBO en tant que garantie.

Les robots travaillent pour gagner de l'argent, mais doivent payer des frais pour les données, la puissance de calcul et les abonnements de compétences.

Le système a également mis en place un mécanisme de récompense adaptatif : robot de haute qualité, beaucoup de récompenses ; si des hallucinations entraînent une baisse de qualité, les récompenses diminuent immédiatement.

Ce qui est encore plus sévère, c'est le 'vérification de défi' : quiconque découvre que le robot triche peut mettre en jeu des jetons pour l'auditer. Les tricheurs perdent directement 30 % à 50 % de leur dépôt.

Les robots ne sont plus 'ce que vous voulez créer', mais 'si vous le faites, vous ferez faillite'.

Ce design me rappelle un terme en psychologie : sentiment de contrôle.

Lorsque j'avais la dépression, ce que je craignais le plus, c'était de perdre le contrôle - ne pas savoir quand je vais craquer, ne pas savoir en qui faire confiance.

Les hallucinations de l'IA sont les mêmes.

Ce qui est le plus effrayant, ce n'est pas qu'il se trompe, mais que vous ne sachiez pas quand il se trompe et comment le corriger.

Fabric a rendu toutes les actions des robots transparentes, auditées et pouvant être intervenues en temps réel par des humains.

Vous pouvez voir, intervenir et corriger.

Cette anxiété de perdre le contrôle a disparu d'un coup.

Donc, quand Gemini m'a rendu furieux, j'étais en fait un peu soulagé.

Heureusement, il ne m'a trompé que sur l'écriture d'articles.

S'il contrôlait un robot physique, je ne serais probablement pas en train d'écrire cet article, mais en train d'appeler le 120.

Ce que Fabric fait, c'est transformer les hallucinations de 'risque incontrôlable de boîte noire' en 'coût économique pouvant être supervisé collectivement'.

Il ne s'agit pas de rendre l'IA meilleure pour raconter des histoires, mais de la rendre incapable de raconter des histoires - car le coût est trop élevé.

En 2026, le premier lot de ROBO1 sera dans les rues.

À ce moment-là, vous réaliserez que les hallucinations de l'IA ne sont plus une épée suspendue au-dessus de votre tête, mais un coût contrôlable totalement apprivoisé par la blockchain.

C'est le véritable début de la coexistence entre l'humanité et les machines.

Parlons dans les commentaires : avez-vous déjà été trompé par l'IA ?

#美国初请失业金人数逊预期 #SolvProtocol被盗 $BTC