Récemment, dans la Silicon Valley et dans divers cercles de séminaires sur la cryptographie, il y a un discours extrêmement bruyant qui soutient que la fin des grands modèles est un pur jeu de pouvoir électrique, et que le matériel de calcul a déjà évolué de manière irréversible en une sorte d'actif de garantie déguisé. Lorsque les cartes graphiques haut de gamme de Nvidia deviennent une monnaie forte sur les bilans des capitaux, nous regardons en réalité un trou noir de puissance de calcul hautement centralisé. Sous cette pression narrative grandiose, après avoir récemment vécu profondément le protocole qui prétendait remodeler les bases de l'économie de la machine, je suis plus enclin à penser que la fin des grands modèles n'est pas une accumulation de ressources sans retenue, mais une redéfinition de l'efficacité de l'ordonnancement et des frontières de la validation sans confiance. Cette écologie tente de briser l'ambition du monopole, ce qui a en effet saisi le point douloureux central de l'informatique hétérogène, mais a également exposé de manière éclatante les dilemmes physiques et d'ingénierie les plus sanglants dans le domaine du calcul décentralisé.
En examinant la piste de location de puissance de calcul existante, que ce soit Lambda, qui se concentre sur la conformité au niveau des entreprises, ou Akash, qui brandit le drapeau du Web3 essayant de transformer l'offre et la demande par l'économie des tokens, ils font tous essentiellement un commerce d'intermédiation de ressources extrêmement classique. Il n'est pas difficile d'obtenir de la puissance de calcul bon marché sur ces plateformes, le plus difficile étant de franchir le gouffre de la fragmentation de la confiance. Ce géant centralisé comme Lambda peut à tout moment couper l'approvisionnement en ressources des petits et moyens développeurs en raison d'une simple politique géopolitique ou d'un écart de prix. Pendant ce temps, cette plateforme de puissance de calcul décentralisée précoce comme Akash souffre souvent d'un sentiment d'isolement étouffant en ce qui concerne la stabilité de la topologie des nœuds. J'ai déjà exécuté des ajustements de modèles à grande échelle sur celle-ci, et ce phénomène de déconnexion et de reconnexion fréquente des nœuds entraînant une explosion des gradients et des interruptions de processus est un cauchemar que tout ingénieur en algorithme ne souhaite pas revivre.
Lorsque l'on passe à cette perspective entièrement nouvelle de l'écosystème, le choc cognitif le plus immédiat réside dans la transition de sa logique sous-jacente. Elle ne se complaît plus dans la simple sous-location de la puissance de calcul, mais tente plutôt de forcer cette puissance de calcul à passer d'une relation de location et vente pure à un actif vérifiable doté d'une très haute liquidité, à travers un mécanisme de vérification cryptographique extrêmement rigoureux. La grande majorité des pairs s'inquiètent encore de la manière de rassembler des cartes graphiques grand public pour former un cluster à peine utilisable, tandis qu'elle réfléchit déjà à comment, par la combinaison de protocoles sous-jacents et de réseaux de couche 2 de Base, chaque nœud en silicium connecté, voire les futurs matériels intelligents incarnés, peuvent devenir des synapses efficaces dotées d'une conscience économique autonome dans un réseau neuronal décentralisé.
Pour explorer si ce grand récit n'est qu'un château en Espagne dans le livre blanc, j'ai directement lancé un ensemble de tâches de micro-ajustement personnalisées basées sur Llama 3 dans son moteur de planification. La granularité des résultats des tests est beaucoup plus complexe que je ne l'avais prévu. Des projets établis sur le marché, comme Render, résolvent souvent des problèmes de redondance visuelle, avec un taux d'erreur de tâche extrêmement élevé. Mais face à des tâches computationnelles intensives qui exigent une bande passante de mémoire vidéo extrêmement rigoureuse et une croissance non linéaire, les faiblesses des projets traditionnels se révèlent. Ce nouveau protocole a réalisé des optimisations d'attente impressionnantes en ce qui concerne la réponse des nœuds et la répartition des tâches. Il n'a pas adopté cette approche aveugle de distribution massive, mais a plutôt effectué des appariements précis basés sur la réputation historique des nœuds et des sondes matérielles en temps réel. Cependant, au cœur de la structure topologique de la collaboration multi-nœuds, les limites physiques de la bande passante réseau restent comme un mur de soupir. Les phénomènes de latence des données synchronisées entre régions persistent, et le mur de mémoire vidéo dans des environnements hétérogènes n'a pas été complètement brisé. C'est une limite physique que toute la piste de calcul décentralisé ne pourra pas contourner à court terme.
Comparé à des produits concurrents phénoménaux qui s'envolent grâce au marketing sur le marché actuel, comme le toujours très attendu io.net, la différence est encore plus frappante. La force concurrentielle de io.net repose sur sa capacité incroyable à intégrer des ressources et à faire du développement commercial. Mais dans cette expansion frénétique, j'ai toujours des doutes profonds sur son mécanisme de vérification efficace de la puissance de calcul sous-jacente. Dans ce marché semblable à une forêt sombre, lorsque vous payez des frais élevés, ce que vous obtenez est très probablement des nœuds de performance falsifiée fabriqués par des studios à l'aide de scripts. En revanche, l'architecture actuelle que nous expérimentons montre clairement une rigueur académique presque religieuse. L'investissement en code pour contrer les attaques par sorcellerie et prouver l'intégrité des calculs est tout simplement énorme. Les coûts des signatures cryptographiques et des preuves à connaissance nulle exécutés au niveau du système semblent même excessifs pour certaines tâches légères. Mais c'est justement ce que j'apprécie chez elle : sans cette vérification rigoureuse, tout calcul décentralisé ne serait qu'un jeu de faux témoignages prêt à s'effondrer à tout moment.
Cette obsession pour la détermination du calcul se projette directement dans les rouages de son modèle économique. Trop de tokens sur le marché ne jouent qu'un rôle de moyen de paiement à coût de friction extrêmement élevé, une conception sans imagination qui sera inévitablement renversée par la liquidité. Dans cet écosystème, son actif central ressemble davantage à un crédit inter-machine et à un laissez-passer prioritaire. Lorsque j'ai essayé d'explorer en profondeur ses nœuds de travail de jalonnement, j'ai réalisé que ce n'était pas simplement un comportement passif pour obtenir des récompenses d'inflation, mais qu'il offrait en réalité une base de pénalité dimensionnelle économique pour la sécurité du consensus de l'ensemble du cerveau distribué. Un design plus intelligent se trouve dans la direction d'inclinaison de sa fonction de récompense. Le système récompense non seulement abondamment les mineurs fournissant un matériel hautement disponible et stable, mais offre également d'énormes incitations aux développeurs qui peuvent optimiser les algorithmes de planification sous-jacents et améliorer le débit global du réseau au niveau du code central. Le projet est très conscient que, même en empilant beaucoup de matériel, cela ne constitue qu'un squelette, et que l'algorithme de planification capable de faire fonctionner ce squelette dans un environnement réseau hautement antagoniste est vraiment l'âme.
Le marché de la puissance de calcul est actuellement à un point singularité extrême et déchirant. D'un côté, il y a les géants technologiques construisant des murs de jardin avec du capital et des barrières technologiques, de l'autre, la force populaire qui croît de manière sauvage dans un champ d'expérimentation décentralisé. Et la Fabric Foundation a précisément ouvert une brèche extrêmement agressive dans ce vide. Elle n'a pas cédé à l'émotion du marché en criant des slogans bon marché qui frappent Nvidia et kickent OpenAI, mais se concentre plutôt sur la vérification de la cohérence des tâches dans un environnement de calcul hétérogène et sur l'infrastructure d'identité en chaîne pour l'économie robotique future. Cette attitude de retenue et de pragmatisme au milieu de la bulle bruyante révèle en fait une fierté de geek à l'ancienne.
Bien sûr, à ce stade de croissance sauvage, les points de contention sont encore suffisamment nombreux pour faire frémir. La documentation des développeurs actuelle et l'encapsulation du SDK représentent un véritable désastre pour les novices sans formation en cryptographie. Les lignes de la documentation transmettent une sorte de sentiment de supériorité élitiste, suggérant que si vous ne comprenez même pas cette logique sous-jacente des calculs vérifiables, vous ne devriez pas venir déranger. La logique d'appel de l'API, bien que théoriquement impeccable, se révèle extrêmement difficile à gérer face à un environnement de production soumis à une forte concurrence et à des tests de stress extrêmes, et le mécanisme de retour d'informations pour le traitement des exceptions reste encore très malaisé. Les erreurs lancées lors des congestions réseau laissent souvent les utilisateurs perplexes. Un risque mortel réside dans le déséquilibre structurel de l'offre de puissance de calcul. Comment établir une véritable digue pour continuer à attirer des centres de données de niveau 1 disposant d'une bande passante interconnectée élevée, plutôt que de laisser le réseau inondé de cartes graphiques grand public très susceptibles de tomber en panne, sera la clé de sa survie dans la rude redistribution de la deuxième moitié.
Notre cercle aime toujours parler de la démocratisation de l'IA comme d'un certain talisman de correction politique. Mais si les mécanismes de planification et de vérification de la puissance de calcul les plus fondamentaux restent enfermés dans les centres de données de quelques fournisseurs de services cloud, cette soi-disant démocratisation n'est qu'un conte cyberpunk que le capital utilise pour embellir sa façade. Le chemin technologique que cette architecture tente de parcourir, sa forme ultime n'est certainement pas un marché noir de puissance de calcul bon marché, mais en train de construire un ensemble de règles de gouvernance décentralisée pour l'économie de la vie siliconée et de l'automatisation des machines. Elle essaie de redéfinir les limites de la propriété de la puissance de calcul, permettant aux machines de générer des interactions économiques sans avoir besoin de confiance.
Ce récit est si vaste qu'il en est presque effrayant. Mais à chaque itération de testnet et soumission de code, on peut ressentir un sentiment d'ingénierie extrêmement mesuré. Dans un marché cryptographique où l'on recherche souvent des taux de rêve de cent fois, une équipe qui s'efforce de faire des choses difficiles et justes semble hors de propos. Mais c'est précisément pour cela que je suis disposé à ancrer une partie de mon énergie de recherche ici, dans cette logique sous-jacente. Dans ce domaine saturé d'escroqueries de type Ponzi et de récits creux, il n'y a jamais un manque de prédicateurs qui pointent du doigt le monde sur des PPT, mais il manque des technophiles prêts à parier leur vie et tout leur code dans des zones inexplorées. Ce qu'ils construisent, c'est une matrice de calcul décentralisée débarrassée de la censure autoritaire, permettant à chaque geek refusant la médiocrité d'obtenir des droits de calcul pour faire fonctionner le monde sans avoir à sacrifier son âme aux géants monopolistiques.
La décentralisation du pouvoir n'a jamais été un dîner en ville, elle est destinée à être lente, douloureuse et pleine de résistance physique. Dans l'affrontement direct avec les centres de données traditionnels centralisés, les solutions décentralisées n'ont pas pu, pendant longtemps, occuper un avantage écrasant en termes de performances absolues et de coûts marginaux, et se révèlent même plus coûteuses et inefficaces lors du traitement de certains modèles géants inter-nœuds. Mais je suis convaincu que ce coût élevé est une prime nécessaire pour lutter contre les pannes uniques, contre le pouvoir de censure, et contre la domination future des machines. Un jour, lorsque les requêtes de raisonnement de l'intelligence artificielle et les instructions de robots autonomes deviendront aussi naturelles et omniprésentes que la respiration humaine, nous ne pourrons absolument pas tolérer que le contrôle de la vanne de cette respiration soit entre les mains de quelques oligarques commerciaux non réglementés.
Dans la prochaine bataille pour les infrastructures de puissance de calcul, si cet écosystème peut mordre dans deux os durs, à savoir la synchronisation à faible latence inter-régionale et les coûts de preuve à connaissance nulle, grâce à des moyens d'ingénierie miraculeux, il a de très grandes chances de réaliser une traversée de classe parmi une multitude de mines de puissance de calcul homogènes, évoluant pour devenir un véritable moteur physique de la coopération décentralisée entre l'IA et les robots à l'échelle mondiale. Cela nécessite non seulement une capacité d'ingénierie capable de briser les cieux, mais aussi une énorme communauté de développeurs qui parviennent à atteindre un consensus presque religieux sur cette logique de calcul décentralisée. Dans ce marché hivernal plein d'incertitudes et de liquidités épuisées, chercher ceux qui s'acharnent sur les détails techniques et reconstruisent la boucle de valeur des protocoles de calcul dans le code est notre seule règle de survie à travers les cycles. C'est une course sans fin pour la liberté de calcul et la libération des machines, dont la ligne d'arrivée est cachée dans l'abîme où se croisent la puissance de calcul et la cryptographie, bien plus profonde que n'importe quel grand plan que nous pouvons actuellement imaginer.
