Il y a tellement de buzz ces jours-ci sur #AI , la confidentialité et la décentralisation qu'il est facile de se perdre dans le jargon. C'est pourquoi, lorsque j'ai entendu Dr. Chen Feng — Professeur associé à UBC et Responsable de la recherche chez AutonomysNetwork — dans le podcast Spilling the TEE, je me suis redressé. En tant que mineur social du HUB d'Autonomys @DAO Labs , je suis de près notre secteur, et l'avis de Dr. Feng sur les Environnements d'Exécution de Confiance et #ConfidentialAI semble absolument crucial pour quiconque construit dans Web3 et l'IA.
Dr. Feng l'a résumé magnifiquement en une phrase qui m'a vraiment marqué :

Il compare les EEE à des châteaux. Imaginez exécuter votre code IA et vos données à l'intérieur d'une forteresse en laquelle vous avez confiance, même si elle se trouve sur l'ordinateur de quelqu'un d'autre. C'est ce que font les EEE. Ils créent des zones sûres et isolées afin que vos modèles puissent calculer de manière privée et avec intégrité. Dans un réseau où le calcul est dispersé sur des machines que vous ne contrôlez pas, cette garantie compte plus que jamais.
Vous avez peut-être entendu parler d'autres technologies de confidentialité — preuves à connaissance nulle, calcul multipartite, cryptographie entièrement homomorphe. Elles offrent des garanties théoriques fascinantes, mais elles ne sont pas prêtes pour les charges de travail d'IA du monde réel d'aujourd'hui. Dr. Feng souligne que si nous attendons que ces méthodes rattrapent leur retard, nous pourrions attendre très longtemps. Les EEE, en revanche, offrent une confidentialité pratique avec aussi peu que cinq pour cent de surcharge. C'est assez rapide pour exécuter des tâches intensives en GPU sans transpirer.
Pour vraiment comprendre pourquoi les EEE comptent, voici les raisons clés pour lesquelles ils se distinguent aujourd'hui :

C'est exactement pourquoi #AutonomysNetwork a profondément intégré les EEE dans son infrastructure. Sans confidentialité, l'IA ne peut pas être digne de confiance. Sans confiance, elle ne peut pas évoluer. Nous créons un environnement axé sur la confidentialité où les modèles et les données restent protégés à chaque étape.
Peut-être que la partie la plus excitante est ce qui vient ensuite : des milliards d'agents d'IA agissant sur la chaîne, négociant, transigeant et nous aidant à automatiser des tâches complexes.
Mais l'évolutivité de la confidentialité pour des milliards d'agents d'IA pose tout un nouvel ensemble de défis — voici pourquoi cela compte tant :

Si les agents d'IA vont être traités comme des utilisateurs dans nos réseaux, ils méritent la même confidentialité que nous exigeons pour nous-mêmes. Mais l'évolutivité de la confidentialité pour des milliards d'agents n'est pas une mince affaire. La solution que Dr. Feng propose est de combiner les EEE avec des GPU puissants comme le H100 de NVIDIA et d'assigner des environnements sécurisés au niveau de l'application plutôt qu'à chaque agent individuel. Cela maintient le système efficace, prévient les goulets d'étranglement et protège toujours les données de chaque agent.
Ces idées sont déjà testées dans le monde réel. Dr. Feng a partagé un projet pilote en Colombie-Britannique, où vingt pour cent des résidents n'ont pas de médecin de famille. Ce projet utilise des médecins d'IA décentralisés alimentés par des EEE et des modèles sur la chaîne pour aider à combler cette lacune. L'objectif n'est pas de remplacer les médecins humains mais de prouver que la technologie peut offrir confidentialité, accessibilité et abordabilité avant de s'attaquer aux obstacles réglementaires.

Le tableau plus large que Dr. Feng a peint est tout aussi urgent. Si la superintelligence est contrôlée par seulement quelques entreprises, cette concentration de pouvoir pose un risque immense. Nous avons besoin d'alternatives décentralisées construites sur des bases open-source, des modèles d'incitation Web3 et, surtout, des EEE pour fournir une couche de confiance. Comme l'a dit Dr. Feng, construire un meilleur avenir pour l'IA qui soit privé, décentralisé et équitable dépend des choix que nous faisons et du travail que nous commençons aujourd'hui.
C'est exactement ce que construit Autonomys — et pourquoi je suis fier de contribuer à travers le HUB SocialMining DAO Labs d'Autonomys. Je partage cela parce que cela compte — pour chaque constructeur, chercheur et passionné dans notre domaine.#BinanceAlpha $BNB