Binance Square

Daft Punk马到成功版

image
Créateur vérifié
文章均为个人看法,不构成投资建议。
Trade fréquemment
1 an(s)
291 Suivis
46.4K+ Abonnés
36.2K+ J’aime
5.7K+ Partagé(s)
Contenu
--
Voir l’original
"抽象链" ce terme, je l'entends tellement souvent récemment que mes oreilles en sont devenues calleuses. Mais pour être honnête, les discussions vont et viennent, il s'agit essentiellement de la manière dont les actifs peuvent traverser les chaînes et comment la liquidité peut être agrégée - ces aspects superficiels sont effectivement importants, mais un problème beaucoup plus crucial a été collectivement ignoré : la rupture au niveau des données. Pensez-y, lorsque nous frappons un NFT sur Ethereum, puis nous courons sur Solana pour faire DePIN, les données des deux écosystèmes ne communiquent tout simplement pas. Si même l'interopérabilité du niveau de stockage n'est pas réalisable, alors ce qu'on appelle la "interopérabilité totale des chaînes" n'est qu'une blague, au mieux cela équivaut à un déménagement d'actifs entre les chaînes. Récemment, en étudiant @WalrusProtocol , j'ai découvert un point qui est gravement sous-estimé : ce n'est pas du tout un "accessoire" de Sui, mais il s'agit d'un jeu plus grand - créer un niveau de stockage universel. Sa logique de conception est intéressante : une fois que le paquet de données (Blob) est enregistré sur le réseau Walrus et qu'un consensus est atteint, la preuve de stockage générée peut être vérifiée de manière extrêmement légère. Qu'est-ce que cela signifie ? Cela signifie que vous pouvez, dans le contrat intelligent d'Ethereum, vérifier directement si certaines données existant sur Walrus sont complètes et utilisables, sans avoir à dépendre de n'importe quel oracle centralisé. Cette capacité, si l'on y pense, est plutôt effrayante. La véritable force de cette architecture réside dans le fait qu'elle transforme le stockage en une "infrastructure publique" indépendante du niveau d'exécution. Auparavant, tout le monde craignait que les protocoles de stockage ne soient pas assez sûrs, mais Walrus utilise le réseau de nœuds de validation de Sui pour faire de la coordination, trouvant un équilibre astucieux entre la sécurité du consensus et l'efficacité du stockage. Cela me fait penser à la forme ultime de la blockchain modulaire : le niveau d'exécution peut avoir d'innombrables Rollups qui luttent chacun pour soi, mais le niveau de données doit être unifié et sans confiance. Ce n'est qu'ainsi que l'ensemble du système ne s'effondrera pas. Pour les développeurs, l'utilité de ce design est encore plus évidente. Vous n'avez plus besoin de maintenir séparément un backend de stockage pour chaque chaîne, il vous suffit d'obtenir un ID de Blob, et vous pouvez appeler ces données sur n'importe quelle chaîne supportant la vérification des preuves de Walrus. Cette capacité de "écrire une fois, référencer partout" est la véritable clé pour briser les murs des chaînes publiques. La véritable interopérabilité de Web3 ne devrait pas se limiter à des tokens échangés entre les chaînes, mais devrait être un flux transparent des états des données. Si Walrus peut vraiment devenir ce "disque dur universel" décentralisé, alors les récits actuels sur les ponts inter-chaînes devront probablement être complètement révisés. #walrus $WAL
"抽象链" ce terme, je l'entends tellement souvent récemment que mes oreilles en sont devenues calleuses. Mais pour être honnête, les discussions vont et viennent, il s'agit essentiellement de la manière dont les actifs peuvent traverser les chaînes et comment la liquidité peut être agrégée - ces aspects superficiels sont effectivement importants, mais un problème beaucoup plus crucial a été collectivement ignoré : la rupture au niveau des données. Pensez-y, lorsque nous frappons un NFT sur Ethereum, puis nous courons sur Solana pour faire DePIN, les données des deux écosystèmes ne communiquent tout simplement pas. Si même l'interopérabilité du niveau de stockage n'est pas réalisable, alors ce qu'on appelle la "interopérabilité totale des chaînes" n'est qu'une blague, au mieux cela équivaut à un déménagement d'actifs entre les chaînes.

Récemment, en étudiant @Walrus 🦭/acc , j'ai découvert un point qui est gravement sous-estimé : ce n'est pas du tout un "accessoire" de Sui, mais il s'agit d'un jeu plus grand - créer un niveau de stockage universel. Sa logique de conception est intéressante : une fois que le paquet de données (Blob) est enregistré sur le réseau Walrus et qu'un consensus est atteint, la preuve de stockage générée peut être vérifiée de manière extrêmement légère. Qu'est-ce que cela signifie ? Cela signifie que vous pouvez, dans le contrat intelligent d'Ethereum, vérifier directement si certaines données existant sur Walrus sont complètes et utilisables, sans avoir à dépendre de n'importe quel oracle centralisé. Cette capacité, si l'on y pense, est plutôt effrayante.

La véritable force de cette architecture réside dans le fait qu'elle transforme le stockage en une "infrastructure publique" indépendante du niveau d'exécution. Auparavant, tout le monde craignait que les protocoles de stockage ne soient pas assez sûrs, mais Walrus utilise le réseau de nœuds de validation de Sui pour faire de la coordination, trouvant un équilibre astucieux entre la sécurité du consensus et l'efficacité du stockage. Cela me fait penser à la forme ultime de la blockchain modulaire : le niveau d'exécution peut avoir d'innombrables Rollups qui luttent chacun pour soi, mais le niveau de données doit être unifié et sans confiance. Ce n'est qu'ainsi que l'ensemble du système ne s'effondrera pas.

Pour les développeurs, l'utilité de ce design est encore plus évidente. Vous n'avez plus besoin de maintenir séparément un backend de stockage pour chaque chaîne, il vous suffit d'obtenir un ID de Blob, et vous pouvez appeler ces données sur n'importe quelle chaîne supportant la vérification des preuves de Walrus. Cette capacité de "écrire une fois, référencer partout" est la véritable clé pour briser les murs des chaînes publiques. La véritable interopérabilité de Web3 ne devrait pas se limiter à des tokens échangés entre les chaînes, mais devrait être un flux transparent des états des données. Si Walrus peut vraiment devenir ce "disque dur universel" décentralisé, alors les récits actuels sur les ponts inter-chaînes devront probablement être complètement révisés. #walrus $WAL
Voir l’original
Je travaille récemment sur le problème de "l'explosion d'état" des blockchains publiques. C'est en fait une impasse : vous voulez de la décentralisation ? Alors il faut que chaque nœud de validation porte l'historique complet de l'état - mais cela ne fonctionne tout simplement pas au niveau physique. Ethereum a proposé l'EIP-4844, introduisant le mécanisme Blob, mais en réalité, c'est juste une solution temporaire, les données sont jetées après quelques mois, il n'est pas question de permanence. Ce n'est qu'après avoir lu le livre blanc de @WalrusProtocol que j'ai réalisé qu'il existe une approche pour sortir de cette impasse qui est plus proche de la nature des systèmes distribués. Le génie de Walrus réside dans le fait qu'il n'a jamais eu l'intention de créer un nouveau consensus. Il a pris une décision d'architecture extrêmement intelligente : utiliser Sui comme "couche de coordination". Qu'est-ce que cela signifie ? Toutes les opérations liées aux métadonnées, aux droits d'accès, aux paiements de stockage et autres "flux de contrôle" sont exécutées sur le réseau principal Sui à haute performance ; et pour les "flux de données" vraiment lourds et non structurés ? Ils sont fragmentés et confiés à des nœuds de stockage dédiés. Le contrôle et les données sont complètement séparés - cette coupe résout directement le problème complexe des performances du réseau principal affectées par les opérations de stockage. Que signifie cette architecture pour les développeurs ? Lorsque je faisais des jeux sur blockchain, pour économiser ce peu de frais de gaz, je devais même compresser les images en code SVG pour les insérer dans les contrats intelligents, c'était de l'auto-torture. Mais dans le système de Walrus, vous pouvez directement extraire les données via un agrégateur HTTP, cette expérience est presque identique à celle de l'utilisation de CDN à l'ère Web2. Plus important encore, parce qu'il hérite naturellement du modèle d'objet Move de Sui, le Blob stocké peut être emballé en tant qu'actif on-chain, possédant une composabilité native - ce n'est pas simplement du stockage de fichiers, mais un citoyen de premier ordre qui peut participer à la logique on-chain. Si Web3 veut vraiment évoluer de "casino de trading de cryptomonnaie" en "plateforme de calcul général", une couche de stockage externe bon marché, permanente et vérifiable est la route qui doit d'abord être préparée. Nous crions toute la journée pour des applications à grande échelle, mais nous ignorons toujours si l'infrastructure peut réellement supporter ce problème physique. La stratégie de Walrus, qui ne joue pas sur les concepts mais réalise une multiplication des performances en réduisant l'architecture, est la véritable pensée d'ingénierie solide. #walrus $WAL
Je travaille récemment sur le problème de "l'explosion d'état" des blockchains publiques. C'est en fait une impasse : vous voulez de la décentralisation ? Alors il faut que chaque nœud de validation porte l'historique complet de l'état - mais cela ne fonctionne tout simplement pas au niveau physique. Ethereum a proposé l'EIP-4844, introduisant le mécanisme Blob, mais en réalité, c'est juste une solution temporaire, les données sont jetées après quelques mois, il n'est pas question de permanence. Ce n'est qu'après avoir lu le livre blanc de @Walrus 🦭/acc que j'ai réalisé qu'il existe une approche pour sortir de cette impasse qui est plus proche de la nature des systèmes distribués.

Le génie de Walrus réside dans le fait qu'il n'a jamais eu l'intention de créer un nouveau consensus. Il a pris une décision d'architecture extrêmement intelligente : utiliser Sui comme "couche de coordination". Qu'est-ce que cela signifie ? Toutes les opérations liées aux métadonnées, aux droits d'accès, aux paiements de stockage et autres "flux de contrôle" sont exécutées sur le réseau principal Sui à haute performance ; et pour les "flux de données" vraiment lourds et non structurés ? Ils sont fragmentés et confiés à des nœuds de stockage dédiés. Le contrôle et les données sont complètement séparés - cette coupe résout directement le problème complexe des performances du réseau principal affectées par les opérations de stockage.

Que signifie cette architecture pour les développeurs ? Lorsque je faisais des jeux sur blockchain, pour économiser ce peu de frais de gaz, je devais même compresser les images en code SVG pour les insérer dans les contrats intelligents, c'était de l'auto-torture. Mais dans le système de Walrus, vous pouvez directement extraire les données via un agrégateur HTTP, cette expérience est presque identique à celle de l'utilisation de CDN à l'ère Web2. Plus important encore, parce qu'il hérite naturellement du modèle d'objet Move de Sui, le Blob stocké peut être emballé en tant qu'actif on-chain, possédant une composabilité native - ce n'est pas simplement du stockage de fichiers, mais un citoyen de premier ordre qui peut participer à la logique on-chain.

Si Web3 veut vraiment évoluer de "casino de trading de cryptomonnaie" en "plateforme de calcul général", une couche de stockage externe bon marché, permanente et vérifiable est la route qui doit d'abord être préparée. Nous crions toute la journée pour des applications à grande échelle, mais nous ignorons toujours si l'infrastructure peut réellement supporter ce problème physique. La stratégie de Walrus, qui ne joue pas sur les concepts mais réalise une multiplication des performances en réduisant l'architecture, est la véritable pensée d'ingénierie solide. #walrus $WAL
Voir l’original
Récemment, en révisant le récit de la "blockchain modulaire", j'ai soudainement réalisé une contradiction systématiquement ignorée : l'ensemble de l'industrie s'empresse d'élargir la couche d'exécution, tout en fermant les yeux sur le manque de disponibilité à long terme des données. Il existe un piège cognitif subtil mais mortel - la couche DA résout effectivement le problème de l'immédiateté de la publication des données, mais elle n'a jamais promis de stockage à long terme. Cela crée un dilemme extrêmement gênant : lorsque je souhaite déployer un modèle AI avec un volume de paramètres très important sur la chaîne, ou stocker un ensemble complet d'actifs de jeu 3D haute précision, où ces données devraient-elles résider ? C'est précisément en étudiant @WalrusProtocol que j'ai réalisé - il comble en fait le vide oublié entre "DA temporaire" et "stockage permanent". Ce qui me fascine particulièrement, c'est son utilisation du mécanisme de correction d'erreur avant de RaptorQ. Cela m'a immédiatement rappelé l'insight central lors de la conception des réseaux P2P : sans aucun protocole interactif complexe, le récepteur doit simplement capturer suffisamment de "gouttes de données" pour reconstruire le fichier entier. Cette caractéristique d'élimination totale du mécanisme de retransmission, libérée dans un environnement réseau à haute latence, offre un avantage d'efficacité inégalé par les solutions traditionnelles. J'ai toujours imaginé un tel scénario : à l'avenir, ces véritables agents AI décentralisés autonomes, si leurs systèmes de mémoire et de données d'entraînement dépendent toujours d'infrastructures centralisées comme AWS, alors le soi-disant "décentralisé" n'est qu'une représentation trompeuse - leur survie est toujours entre les mains des autres. Mais si ces données sont hébergées sur Walrus et indexées avec précision grâce au modèle d'objet de Sui, alors ces données subiront une transition essentielle : elles ne seront plus des ressources louées pouvant être supprimées à volonté, mais de véritables actifs numériques qui peuvent être combinés, possédés et échangés. La décentralisation ne devrait jamais devenir un cache-misère inefficace. Si le débit de la couche de stockage et la latence de récupération ne peuvent pas être fondamentalement révolutionnés par des innovations architecturales comme Walrus, alors Web3 sera toujours piégé dans le marécage de la spéculation financière, incapable de supporter des cas d'utilisation nécessitant réellement un traitement massif de données. Le choix technologique ne peut pas seulement se concentrer sur l'apparence extérieure brillante du récit, mais il faut aussi interroger si cette architecture peut réellement maintenir sa position face à la violente pression du trafic réel. #walrus $WAL
Récemment, en révisant le récit de la "blockchain modulaire", j'ai soudainement réalisé une contradiction systématiquement ignorée : l'ensemble de l'industrie s'empresse d'élargir la couche d'exécution, tout en fermant les yeux sur le manque de disponibilité à long terme des données. Il existe un piège cognitif subtil mais mortel - la couche DA résout effectivement le problème de l'immédiateté de la publication des données, mais elle n'a jamais promis de stockage à long terme. Cela crée un dilemme extrêmement gênant : lorsque je souhaite déployer un modèle AI avec un volume de paramètres très important sur la chaîne, ou stocker un ensemble complet d'actifs de jeu 3D haute précision, où ces données devraient-elles résider ?

C'est précisément en étudiant @Walrus 🦭/acc que j'ai réalisé - il comble en fait le vide oublié entre "DA temporaire" et "stockage permanent". Ce qui me fascine particulièrement, c'est son utilisation du mécanisme de correction d'erreur avant de RaptorQ. Cela m'a immédiatement rappelé l'insight central lors de la conception des réseaux P2P : sans aucun protocole interactif complexe, le récepteur doit simplement capturer suffisamment de "gouttes de données" pour reconstruire le fichier entier. Cette caractéristique d'élimination totale du mécanisme de retransmission, libérée dans un environnement réseau à haute latence, offre un avantage d'efficacité inégalé par les solutions traditionnelles.

J'ai toujours imaginé un tel scénario : à l'avenir, ces véritables agents AI décentralisés autonomes, si leurs systèmes de mémoire et de données d'entraînement dépendent toujours d'infrastructures centralisées comme AWS, alors le soi-disant "décentralisé" n'est qu'une représentation trompeuse - leur survie est toujours entre les mains des autres. Mais si ces données sont hébergées sur Walrus et indexées avec précision grâce au modèle d'objet de Sui, alors ces données subiront une transition essentielle : elles ne seront plus des ressources louées pouvant être supprimées à volonté, mais de véritables actifs numériques qui peuvent être combinés, possédés et échangés.

La décentralisation ne devrait jamais devenir un cache-misère inefficace. Si le débit de la couche de stockage et la latence de récupération ne peuvent pas être fondamentalement révolutionnés par des innovations architecturales comme Walrus, alors Web3 sera toujours piégé dans le marécage de la spéculation financière, incapable de supporter des cas d'utilisation nécessitant réellement un traitement massif de données. Le choix technologique ne peut pas seulement se concentrer sur l'apparence extérieure brillante du récit, mais il faut aussi interroger si cette architecture peut réellement maintenir sa position face à la violente pression du trafic réel. #walrus $WAL
Voir l’original
Ces deux derniers jours, j'ai été plongé dans la documentation technique de @WalrusProtocol , en particulier la logique de traitement des données non structurées (Blob). Pour être honnête, cela m'a amené à reconsidérer une question longtemps ignorée : lorsque nous construisons des applications de bout en bout, avons-nous des illusions irréalistes sur la "stockage décentralisé" ? Quelle était l'inertie de la pensée passée ? Jeter les hachages de fichiers sur la chaîne et espérer que les nœuds IPFS, par un certain "sens moral", conservent vos données à long terme. Mais la réalité est dure - un stockage sans incitation ne peut tout simplement pas tenir, et les systèmes avec une conception d'incitation trop lourde décourageront directement les développeurs. C'est un cercle vicieux. L'angle d'approche de Walrus m'a donné un sentiment rare de "lucidité". Il n'a pas présenté le stockage comme une sorte de saint Graal inaccessibile, mais a utilisé le code d'effacement (Erasure Coding) associé à un ensemble de mécanismes de vérification simplifiés pour rendre la disponibilité des données à la fois bon marché et fiable. Mais ce qui m'inquiète davantage, c'est la relation d'interopérabilité profonde entre cela et Sui - ce n'est pas simplement un "simple stockage de données", mais cela réalise véritablement la **programmabilité du stockage**. L'essence de cette architecture réside dans la réécriture des limites de la perception des développeurs sur les "ressources". Autrefois, le stockage et la logique d'exécution étaient deux lignes parallèles : vous mettiez des données sur IPFS, puis écriviez des contrats sur la chaîne pour y faire référence, avec un sentiment de déchirement insurmontable entre les deux. Mais maintenant, sur Walrus, l'action de stockage peut être liée de manière atomique à l'exécution des contrats intelligents. Vous ne sauvegardez pas seulement un morceau de code ou un fichier vidéo, vous contrôlez directement le cycle de vie complet de ces données via le contrat - de la transmission de propriété aux droits d'accès, jusqu'à la logique de destruction, tout cela peut être défini de manière programmatique. Cette expérience de "stockage c'est logique" n'est pas du tout la même chose que de mettre une couche de blockchain autour de quelque chose en dehors d'AWS. En y réfléchissant, si nous voulons vraiment construire une bibliothèque décentralisée qui ne peut pas être arrêtée, ou une plateforme vidéo entièrement appartenant à la communauté, mettre tout dans une couche de stockage L1 coûteuse est clairement une impasse. Vous devez trouver une infrastructure qui puisse garantir la capacité de sauvegarde des données (Robustesse) tout en réduisant les coûts au maximum. Dans ce domaine, la simplicité, la rapidité, et la cohérence logique sont la seule véritable justice. #walrus $WAL
Ces deux derniers jours, j'ai été plongé dans la documentation technique de @Walrus 🦭/acc , en particulier la logique de traitement des données non structurées (Blob). Pour être honnête, cela m'a amené à reconsidérer une question longtemps ignorée : lorsque nous construisons des applications de bout en bout, avons-nous des illusions irréalistes sur la "stockage décentralisé" ?

Quelle était l'inertie de la pensée passée ? Jeter les hachages de fichiers sur la chaîne et espérer que les nœuds IPFS, par un certain "sens moral", conservent vos données à long terme. Mais la réalité est dure - un stockage sans incitation ne peut tout simplement pas tenir, et les systèmes avec une conception d'incitation trop lourde décourageront directement les développeurs. C'est un cercle vicieux.

L'angle d'approche de Walrus m'a donné un sentiment rare de "lucidité". Il n'a pas présenté le stockage comme une sorte de saint Graal inaccessibile, mais a utilisé le code d'effacement (Erasure Coding) associé à un ensemble de mécanismes de vérification simplifiés pour rendre la disponibilité des données à la fois bon marché et fiable. Mais ce qui m'inquiète davantage, c'est la relation d'interopérabilité profonde entre cela et Sui - ce n'est pas simplement un "simple stockage de données", mais cela réalise véritablement la **programmabilité du stockage**.

L'essence de cette architecture réside dans la réécriture des limites de la perception des développeurs sur les "ressources". Autrefois, le stockage et la logique d'exécution étaient deux lignes parallèles : vous mettiez des données sur IPFS, puis écriviez des contrats sur la chaîne pour y faire référence, avec un sentiment de déchirement insurmontable entre les deux. Mais maintenant, sur Walrus, l'action de stockage peut être liée de manière atomique à l'exécution des contrats intelligents. Vous ne sauvegardez pas seulement un morceau de code ou un fichier vidéo, vous contrôlez directement le cycle de vie complet de ces données via le contrat - de la transmission de propriété aux droits d'accès, jusqu'à la logique de destruction, tout cela peut être défini de manière programmatique. Cette expérience de "stockage c'est logique" n'est pas du tout la même chose que de mettre une couche de blockchain autour de quelque chose en dehors d'AWS.

En y réfléchissant, si nous voulons vraiment construire une bibliothèque décentralisée qui ne peut pas être arrêtée, ou une plateforme vidéo entièrement appartenant à la communauté, mettre tout dans une couche de stockage L1 coûteuse est clairement une impasse. Vous devez trouver une infrastructure qui puisse garantir la capacité de sauvegarde des données (Robustesse) tout en réduisant les coûts au maximum. Dans ce domaine, la simplicité, la rapidité, et la cohérence logique sont la seule véritable justice. #walrus $WAL
Voir l’original
Récemment, j'ai beaucoup réfléchi au "triangle impossible" du stockage décentralisé (Decentralized Storage). Nous poursuivons toujours la souveraineté des données, mais dès qu'il s'agit de données non structurées à grande échelle - c'est-à-dire ces soi-disant "Blob" - les coûts et l'efficacité deviennent des obstacles. Les L1 existants, pour garantir la légèreté de l'état (State), rejettent fortement l'enregistrement de gros fichiers, ce qui signifie que de nombreuses dApps sont en fait "semi-décentralisées". ​Après avoir étudié l'architecture technique de @WalrusProtocol , j'ai l'impression que leur point d'entrée est très astucieux et pragmatique. Ils n'ont pas essayé de renverser la couche de consensus, mais se sont concentrés sur comment "jeter" efficacement les redondances. En utilisant la technologie de codage de correction d'erreurs (Erasure Coding), ils dispersent les fichiers en tranches, ce qui est bien plus intelligent que de simplement copier linéairement à l'échelle du réseau. Ce design permet aux coûts de stockage de ne plus augmenter linéairement avec le nombre de nœuds du réseau, tout en garantissant une probabilité de récupération des données (Probability of Recovery) très faible pour le coût par unité de stockage. ​Je me demande, pour les médias sociaux Web3 futurs ou les grands jeux en chaîne, que le goulot d'étranglement ne soit pas le TPS, mais le stockage. Si nous devons encore dépendre d'AWS S3 pour stocker les fichiers sources des NFT, alors cette décentralisation est fragile. #Walrus construit sur le réseau Sui, non seulement en tirant parti de l'avantage d'exécution parallèle de Sui, mais en séparant également le modèle économique de stockage. Pour les développeurs, cette idée de "découpler la couche de stockage de la couche d'exécution" pourrait être la solution la plus raisonnable pour résoudre l'explosion d'état (State Bloat). ​Il n'est plus nécessaire de se demander s'il faut compresser la qualité d'image pour économiser du gaz, la technologie devrait servir l'expérience, et non faire en sorte que l'expérience se compromette à la technologie. Si ce plan peut fonctionner, il pourrait bien être l'infrastructure de base pour une adoption à grande échelle (Mass Adoption). #walrus $WAL
Récemment, j'ai beaucoup réfléchi au "triangle impossible" du stockage décentralisé (Decentralized Storage). Nous poursuivons toujours la souveraineté des données, mais dès qu'il s'agit de données non structurées à grande échelle - c'est-à-dire ces soi-disant "Blob" - les coûts et l'efficacité deviennent des obstacles. Les L1 existants, pour garantir la légèreté de l'état (State), rejettent fortement l'enregistrement de gros fichiers, ce qui signifie que de nombreuses dApps sont en fait "semi-décentralisées".
​Après avoir étudié l'architecture technique de @Walrus 🦭/acc , j'ai l'impression que leur point d'entrée est très astucieux et pragmatique. Ils n'ont pas essayé de renverser la couche de consensus, mais se sont concentrés sur comment "jeter" efficacement les redondances. En utilisant la technologie de codage de correction d'erreurs (Erasure Coding), ils dispersent les fichiers en tranches, ce qui est bien plus intelligent que de simplement copier linéairement à l'échelle du réseau. Ce design permet aux coûts de stockage de ne plus augmenter linéairement avec le nombre de nœuds du réseau, tout en garantissant une probabilité de récupération des données (Probability of Recovery) très faible pour le coût par unité de stockage.
​Je me demande, pour les médias sociaux Web3 futurs ou les grands jeux en chaîne, que le goulot d'étranglement ne soit pas le TPS, mais le stockage. Si nous devons encore dépendre d'AWS S3 pour stocker les fichiers sources des NFT, alors cette décentralisation est fragile. #Walrus construit sur le réseau Sui, non seulement en tirant parti de l'avantage d'exécution parallèle de Sui, mais en séparant également le modèle économique de stockage. Pour les développeurs, cette idée de "découpler la couche de stockage de la couche d'exécution" pourrait être la solution la plus raisonnable pour résoudre l'explosion d'état (State Bloat).
​Il n'est plus nécessaire de se demander s'il faut compresser la qualité d'image pour économiser du gaz, la technologie devrait servir l'expérience, et non faire en sorte que l'expérience se compromette à la technologie. Si ce plan peut fonctionner, il pourrait bien être l'infrastructure de base pour une adoption à grande échelle (Mass Adoption). #walrus $WAL
Voir l’original
Réflexions fragmentées : qu'est-ce qui nous inquiète vraiment lorsque nous parlons de 'stockage permanent' ?Récemment, je reconstruis la logique des contrats sur Layer 1, et plus j'écris, plus je sens que quelque chose ne va pas. Nous avons toujours poursuivi l'extrême du TPS, Sui et Solana ont déjà poussé la vitesse de la couche d'exécution à un niveau milliseconde, mais chaque fois que je fais face à la nécessité d'un grand volume de données sur la chaîne, je me sens encore instinctivement freiner. Cette sensation de déchirement est très forte : la couche d'exécution est en vol, tandis que la couche de stockage semble encore être en train de composer un numéro de téléphone. Hier soir, j'ai regardé le document @WalrusProtocol pendant longtemps, et cette anxiété s'est légèrement atténuée. Ce n'est pas parce qu'il a proposé des termes marketing 'disruptifs', mais parce qu'il trace un chemin pour résoudre les problèmes qui correspond parfaitement à mon intuition sur l'infrastructure Web3 de prochaine génération - décoller 'disponibilité des données' et 'durabilité des données', tout en utilisant le consensus L1 existant pour gérer les métadonnées.

Réflexions fragmentées : qu'est-ce qui nous inquiète vraiment lorsque nous parlons de 'stockage permanent' ?

Récemment, je reconstruis la logique des contrats sur Layer 1, et plus j'écris, plus je sens que quelque chose ne va pas. Nous avons toujours poursuivi l'extrême du TPS, Sui et Solana ont déjà poussé la vitesse de la couche d'exécution à un niveau milliseconde, mais chaque fois que je fais face à la nécessité d'un grand volume de données sur la chaîne, je me sens encore instinctivement freiner.
Cette sensation de déchirement est très forte : la couche d'exécution est en vol, tandis que la couche de stockage semble encore être en train de composer un numéro de téléphone.
Hier soir, j'ai regardé le document @Walrus 🦭/acc pendant longtemps, et cette anxiété s'est légèrement atténuée. Ce n'est pas parce qu'il a proposé des termes marketing 'disruptifs', mais parce qu'il trace un chemin pour résoudre les problèmes qui correspond parfaitement à mon intuition sur l'infrastructure Web3 de prochaine génération - décoller 'disponibilité des données' et 'durabilité des données', tout en utilisant le consensus L1 existant pour gérer les métadonnées.
Voir l’original
Réflexions architecturales à trois heures du matin : d'AWS à Walrus, à la recherche de la 'forme physique' des données Web3À trois heures du matin, en regardant le processus de téléchargement AWS S3 qui continue de réessayer dans le terminal, j'ai soudain ressenti une absurdité indescriptible. Nous, ce groupe de personnes, criant chaque jour sur Twitter à propos de Web3, de décentralisation et de lutte contre la censure, découvrons que l'architecture backend, une fois déchirée, est entièrement dominée par les ombres d'Amazon et de Google. Tout à l'heure, pour transférer ces quelques Go de données d'entraînement vers un réseau décentralisé, j'ai essayé IPFS. Même si j'ai exécuté mon propre service de Pinning, la vitesse d'indexation reste désespérément lente, au point de vouloir frapper mon clavier. Quant à Arweave, c'est pour le stockage permanent. Pour moi, qui ai besoin de lectures et écritures fréquentes, voire d'exigences d'immédiateté pour des flux de données dynamiques, le modèle de coût et la logique architecturale ne sont pas du tout adaptés. Ce dont j'ai besoin n'est pas de graver des données sur une pierre, mais d'avoir quelque chose de flexible comme un disque dur, aussi rapide qu'un CDN, mais qui n'appartienne pas à Bezos.

Réflexions architecturales à trois heures du matin : d'AWS à Walrus, à la recherche de la 'forme physique' des données Web3

À trois heures du matin, en regardant le processus de téléchargement AWS S3 qui continue de réessayer dans le terminal, j'ai soudain ressenti une absurdité indescriptible. Nous, ce groupe de personnes, criant chaque jour sur Twitter à propos de Web3, de décentralisation et de lutte contre la censure, découvrons que l'architecture backend, une fois déchirée, est entièrement dominée par les ombres d'Amazon et de Google. Tout à l'heure, pour transférer ces quelques Go de données d'entraînement vers un réseau décentralisé, j'ai essayé IPFS. Même si j'ai exécuté mon propre service de Pinning, la vitesse d'indexation reste désespérément lente, au point de vouloir frapper mon clavier. Quant à Arweave, c'est pour le stockage permanent. Pour moi, qui ai besoin de lectures et écritures fréquentes, voire d'exigences d'immédiateté pour des flux de données dynamiques, le modèle de coût et la logique architecturale ne sont pas du tout adaptés. Ce dont j'ai besoin n'est pas de graver des données sur une pierre, mais d'avoir quelque chose de flexible comme un disque dur, aussi rapide qu'un CDN, mais qui n'appartienne pas à Bezos.
Voir l’original
Concernant le stockage, je surveille récemment les progrès du Walrus Protocol.En fait, lorsque nous parlions de stockage décentralisé, les gens pensaient instinctivement à Filecoin ou Arweave. Mais lors de l'utilisation réelle, il y a toujours quelque chose qui manque. Soit la vitesse d'accès est lente comme le modem des années 90, soit la barrière de développement est si élevée qu'elle rend les gens réticents. Il y a quelques jours, j'ai approfondi la logique sous-jacente de Walrus et j'ai soudainement réalisé que son apparition pourrait non seulement ajouter de la valeur à l'écosystème SUI, mais aussi reconstruire notre compréhension de l'équilibre entre "disponibilité des données" et "efficacité du stockage". Pourquoi les solutions de stockage actuelles me donnent-elles toujours l'impression qu'il manque quelque chose ?

Concernant le stockage, je surveille récemment les progrès du Walrus Protocol.

En fait, lorsque nous parlions de stockage décentralisé, les gens pensaient instinctivement à Filecoin ou Arweave. Mais lors de l'utilisation réelle, il y a toujours quelque chose qui manque. Soit la vitesse d'accès est lente comme le modem des années 90, soit la barrière de développement est si élevée qu'elle rend les gens réticents. Il y a quelques jours, j'ai approfondi la logique sous-jacente de Walrus et j'ai soudainement réalisé que son apparition pourrait non seulement ajouter de la valeur à l'écosystème SUI, mais aussi reconstruire notre compréhension de l'équilibre entre "disponibilité des données" et "efficacité du stockage".
Pourquoi les solutions de stockage actuelles me donnent-elles toujours l'impression qu'il manque quelque chose ?
Voir l’original
Récemment, en décomposant plusieurs modèles économiques Layer 1, une question est toujours restée dans mon esprit : lorsque la confidentialité et la conformité deviennent des exigences incontournables, comment la sécurité des protocoles sous-jacents devrait-elle établir une véritable relation d'ancrage avec la valeur des actifs ? Cela m'a poussé à porter mon attention sur la philosophie de conception de @Dusk_Foundation . Ce qui m'a surpris, c'est qu'ils ne sont pas tombés dans le piège qui est presque devenu une habitude dans l'industrie — attirer les nœuds à participer par "un taux d'inflation élevé pour un rendement annuel élevé", mais plutôt concentrer leur stratégie sur une question plus essentielle : comment abaisser simultanément les barrières d'entrée pour les nœuds tout en permettant au mécanisme de pénalité (Slashing) d'exercer un véritable effet dissuasif ? Cette détermination stratégique a été traduite dans l'architecture des nœuds de #Dusk en un chemin technique concret. En introduisant un mécanisme d'enchères à l'aveugle basé sur des preuves à divulgation nulle de connaissance (Proof of Blind Bid), la logique de participation au consensus s'est détachée de la simple dépendance à la puissance de calcul ou à l'échelle des fonds dans le paradigme traditionnel. Plus j'étudiais, plus je réalisais clairement que la valeur fondamentale de ce mécanisme réside dans la redéfinition du concept de "coût d'honnêteté". Dans les systèmes PoS conventionnels, les grands nœuds détiennent presque un pouvoir absolu grâce à leur avantage financier. Mais la conception de Dusk a brisé ce schéma — étant donné que l'identité des participants est dans un état dynamique et caché, les attaquants ne peuvent pratiquement pas mettre en œuvre une paralysie ciblée par des moyens d'ingénierie sociale ou en centralisant des fonds. Cette incertitude constitue en elle-même une barrière de défense naturelle. Lorsque nous changeons notre perspective vers la durabilité du réseau, le mécanisme de répartition des frais de transaction devient le point d'observation qui m'intéresse le plus. Imaginez une scène : si, à l'avenir, les actifs du monde réel (RWA) affluent massivement sur la chaîne pour des liquidations et des règlements, alors les frais de transaction remplaceront inévitablement l'émission de jetons, devenant ainsi la principale source de revenus des nœuds. Qu'est-ce que cela signifie ? Cela signifie que la sécurité du protocole sera directement ancrée dans des activités commerciales réelles, plutôt que flottant sur des subventions de jetons non durables. Cette transformation stratégique de "dépendance aux subventions" vers "pilotage par les affaires" est, à mes yeux, une capacité d'auto-génération que toute infrastructure financière mature doit posséder — elle n'est plus une jeune pousse dans une serre, mais un organisme capable de tenir fermement face aux tempêtes du marché. #dusk $DUSK
Récemment, en décomposant plusieurs modèles économiques Layer 1, une question est toujours restée dans mon esprit : lorsque la confidentialité et la conformité deviennent des exigences incontournables, comment la sécurité des protocoles sous-jacents devrait-elle établir une véritable relation d'ancrage avec la valeur des actifs ? Cela m'a poussé à porter mon attention sur la philosophie de conception de @Dusk . Ce qui m'a surpris, c'est qu'ils ne sont pas tombés dans le piège qui est presque devenu une habitude dans l'industrie — attirer les nœuds à participer par "un taux d'inflation élevé pour un rendement annuel élevé", mais plutôt concentrer leur stratégie sur une question plus essentielle : comment abaisser simultanément les barrières d'entrée pour les nœuds tout en permettant au mécanisme de pénalité (Slashing) d'exercer un véritable effet dissuasif ?

Cette détermination stratégique a été traduite dans l'architecture des nœuds de #Dusk en un chemin technique concret. En introduisant un mécanisme d'enchères à l'aveugle basé sur des preuves à divulgation nulle de connaissance (Proof of Blind Bid), la logique de participation au consensus s'est détachée de la simple dépendance à la puissance de calcul ou à l'échelle des fonds dans le paradigme traditionnel. Plus j'étudiais, plus je réalisais clairement que la valeur fondamentale de ce mécanisme réside dans la redéfinition du concept de "coût d'honnêteté". Dans les systèmes PoS conventionnels, les grands nœuds détiennent presque un pouvoir absolu grâce à leur avantage financier. Mais la conception de Dusk a brisé ce schéma — étant donné que l'identité des participants est dans un état dynamique et caché, les attaquants ne peuvent pratiquement pas mettre en œuvre une paralysie ciblée par des moyens d'ingénierie sociale ou en centralisant des fonds. Cette incertitude constitue en elle-même une barrière de défense naturelle.

Lorsque nous changeons notre perspective vers la durabilité du réseau, le mécanisme de répartition des frais de transaction devient le point d'observation qui m'intéresse le plus. Imaginez une scène : si, à l'avenir, les actifs du monde réel (RWA) affluent massivement sur la chaîne pour des liquidations et des règlements, alors les frais de transaction remplaceront inévitablement l'émission de jetons, devenant ainsi la principale source de revenus des nœuds. Qu'est-ce que cela signifie ? Cela signifie que la sécurité du protocole sera directement ancrée dans des activités commerciales réelles, plutôt que flottant sur des subventions de jetons non durables. Cette transformation stratégique de "dépendance aux subventions" vers "pilotage par les affaires" est, à mes yeux, une capacité d'auto-génération que toute infrastructure financière mature doit posséder — elle n'est plus une jeune pousse dans une serre, mais un organisme capable de tenir fermement face aux tempêtes du marché.

#dusk $DUSK
Voir l’original
Où se situe réellement le verrou de l'implémentation à grande échelle des preuves à connaissance nulle (ZKP) ? C'est une question que j'ai récemment beaucoup méditée. La réponse est frustrante mais extrêmement claire : la grande majorité des projets échouent sur le seuil de la "génération de preuves". Imaginez que lorsque les utilisateurs doivent rester assis devant le navigateur pendant des dizaines de secondes, voire des minutes, à regarder la barre de progression avancer, quelle est donc la signification de la prétendue "protection de la vie privée" ? Face à cette réalité, la décision de @Dusk_Foundation de maintenir le développement interne de la machine virtuelle Piecrust devient soudainement extrêmement claire : ce n'est pas une obsession technologique, mais une compréhension précise de la nature du problème. Lorsque j'ai approfondi les détails de conception de Piecrust, ce qui m'a vraiment frappé, c'est son approche d'optimisation sous-jacente pour la vérification ZK récursive. L'EVM traditionnel n'a jamais été conçu pour des calculs de preuves à connaissance nulle depuis sa création, exécuter des algorithmes ZK dessus est comme faire courir une voiture de sport sur un chemin de terre boueux : théoriquement possible, mais pratiquement impossible. La solution de Dusk est extrêmement simple et brutale : intégrer directement au niveau de la machine virtuelle les primitives précompilées du système de preuves PLONK. Quel est le résultat de cette approche radicale ? Les coûts de calcul sont poussés à l'extrême, l'exécution de contrats intelligents complexes peut même se rapprocher de la fluidité des simples transferts. Ce saut de performance n'est pas obtenu par une optimisation de code qui extrait quelques pourcents, mais par une rupture d'échelle au niveau de l'architecture. Mais que signifie cela pour les développeurs ? À première vue, c'est un saut de performance, mais en réalité, c'est une reconstruction totale des paradigmes de développement. En écrivant des contrats intelligents en Rust, les développeurs n'ont pas besoin de devenir des experts en cryptographie pour maîtriser les capacités de ZK : cette "complexité abstraite" est la ligne de vie qui détermine si une infrastructure peut réellement retenir les développeurs de l'écosystème. Après tout, même la technologie la plus puissante ne pourra jamais réduire le seuil d'utilisation, finissant par devenir un simple objet d'exposition dans un laboratoire. Nous devons faire face à un fait cruel : si le coût du calcul confidentiel ne peut pas être réduit à un niveau comparable à celui du calcul transparent, la prétendue blockchain publique conforme ne pourra jamais supporter des transactions financières à haute fréquence. Ce qui m'a vraiment convaincu chez Dusk, c'est cette refonte fondamentale de l'architecture de calcul : elle ne s'est pas contentée de rafistoler le cadre existant, mais a commencé à réfléchir au rapport coût-efficacité de la vie privée dès le niveau des "transistors" de la machine virtuelle. #dusk $DUSK
Où se situe réellement le verrou de l'implémentation à grande échelle des preuves à connaissance nulle (ZKP) ? C'est une question que j'ai récemment beaucoup méditée. La réponse est frustrante mais extrêmement claire : la grande majorité des projets échouent sur le seuil de la "génération de preuves". Imaginez que lorsque les utilisateurs doivent rester assis devant le navigateur pendant des dizaines de secondes, voire des minutes, à regarder la barre de progression avancer, quelle est donc la signification de la prétendue "protection de la vie privée" ? Face à cette réalité, la décision de @Dusk de maintenir le développement interne de la machine virtuelle Piecrust devient soudainement extrêmement claire : ce n'est pas une obsession technologique, mais une compréhension précise de la nature du problème.

Lorsque j'ai approfondi les détails de conception de Piecrust, ce qui m'a vraiment frappé, c'est son approche d'optimisation sous-jacente pour la vérification ZK récursive. L'EVM traditionnel n'a jamais été conçu pour des calculs de preuves à connaissance nulle depuis sa création, exécuter des algorithmes ZK dessus est comme faire courir une voiture de sport sur un chemin de terre boueux : théoriquement possible, mais pratiquement impossible. La solution de Dusk est extrêmement simple et brutale : intégrer directement au niveau de la machine virtuelle les primitives précompilées du système de preuves PLONK. Quel est le résultat de cette approche radicale ? Les coûts de calcul sont poussés à l'extrême, l'exécution de contrats intelligents complexes peut même se rapprocher de la fluidité des simples transferts. Ce saut de performance n'est pas obtenu par une optimisation de code qui extrait quelques pourcents, mais par une rupture d'échelle au niveau de l'architecture.

Mais que signifie cela pour les développeurs ? À première vue, c'est un saut de performance, mais en réalité, c'est une reconstruction totale des paradigmes de développement. En écrivant des contrats intelligents en Rust, les développeurs n'ont pas besoin de devenir des experts en cryptographie pour maîtriser les capacités de ZK : cette "complexité abstraite" est la ligne de vie qui détermine si une infrastructure peut réellement retenir les développeurs de l'écosystème. Après tout, même la technologie la plus puissante ne pourra jamais réduire le seuil d'utilisation, finissant par devenir un simple objet d'exposition dans un laboratoire.

Nous devons faire face à un fait cruel : si le coût du calcul confidentiel ne peut pas être réduit à un niveau comparable à celui du calcul transparent, la prétendue blockchain publique conforme ne pourra jamais supporter des transactions financières à haute fréquence. Ce qui m'a vraiment convaincu chez Dusk, c'est cette refonte fondamentale de l'architecture de calcul : elle ne s'est pas contentée de rafistoler le cadre existant, mais a commencé à réfléchir au rapport coût-efficacité de la vie privée dès le niveau des "transistors" de la machine virtuelle. #dusk $DUSK
Voir l’original
En réfléchissant à la piste RWA, j'ai réalisé une contradiction clé souvent négligée : tout le monde parle de la manière dont les actifs sont mis sur la chaîne, mais presque personne n'affronte directement le dilemme de la vie privée provoqué par "l'identité sur la chaîne". Les solutions existantes de Soulbound Token sont trop transparentes et, pour les utilisateurs à haute valeur nette, elles équivalent à une nudité numérique. C'est cette tension non résolue qui m'a poussé à décomposer le protocole Citadel de @Dusk_Foundation . Ce protocole n'est pas seulement un paquet d'outils KYC/AML. D'un point de vue architectural, il ressemble davantage à une réalisation mathématique de "l'identité souveraine". La percée clé de Citadel réside dans l'atteinte de la "divulgation sélective" grâce à la preuve à zéro connaissance - les utilisateurs peuvent prouver sur la chaîne "je respecte les normes d'investisseur qualifié" ou "je ne suis pas sur la liste de sanctions", sans avoir à exposer les détails de leur passeport ou leur vrai nom à aucun nœud de vérification. Ce design qui découple complètement la validation de conformité des données d'identité à un niveau fondamental, indique vraiment un chemin viable pour l'intégration de Web3 dans le système financier traditionnel. Lorsque cette logique est combinée avec leur norme XSC (Contrat de Sécurité Confidentielle), toute la narration de #Dusk se boucle. XSC ne sert pas simplement de conteneur de valeur comme l'ERC-20, il intègre un moteur de règles. Cela signifie que le jeton lui-même a la capacité de "refuser" des transferts non conformes, plutôt que de dépendre de l filtrage ultérieur des échanges centralisés. C'est une décentralisation du pouvoir et une reconstruction de l'autorité. Je suis de plus en plus convaincu que cette approche de l'exécution de la conformité au niveau du protocole - plutôt que de dépendre d'audits externes - bien que le seuil technique soit extrêmement élevé, a une valeur stratégique inestimable. Elle tente d'atteindre une "conformité de niveau autorisé" sur une "blockchain publique sans permission", ce qui non seulement résout la contradiction fondamentale entre la réglementation et la décentralisation, mais empêche également la liquidité d'être fragmentée par d'innombrables îlots de chaînes privées. Une fois que les valeurs mobilières seront massivement mises sur la chaîne à l'avenir, des architectures comme Citadel pourraient très bien devenir des normes obligatoires de base. Cela dépasse déjà l'innovation technique au niveau du code, c'est une réécriture fondamentale des mécanismes de confiance financière. #dusk $DUSK
En réfléchissant à la piste RWA, j'ai réalisé une contradiction clé souvent négligée : tout le monde parle de la manière dont les actifs sont mis sur la chaîne, mais presque personne n'affronte directement le dilemme de la vie privée provoqué par "l'identité sur la chaîne". Les solutions existantes de Soulbound Token sont trop transparentes et, pour les utilisateurs à haute valeur nette, elles équivalent à une nudité numérique. C'est cette tension non résolue qui m'a poussé à décomposer le protocole Citadel de @Dusk .

Ce protocole n'est pas seulement un paquet d'outils KYC/AML. D'un point de vue architectural, il ressemble davantage à une réalisation mathématique de "l'identité souveraine". La percée clé de Citadel réside dans l'atteinte de la "divulgation sélective" grâce à la preuve à zéro connaissance - les utilisateurs peuvent prouver sur la chaîne "je respecte les normes d'investisseur qualifié" ou "je ne suis pas sur la liste de sanctions", sans avoir à exposer les détails de leur passeport ou leur vrai nom à aucun nœud de vérification. Ce design qui découple complètement la validation de conformité des données d'identité à un niveau fondamental, indique vraiment un chemin viable pour l'intégration de Web3 dans le système financier traditionnel.

Lorsque cette logique est combinée avec leur norme XSC (Contrat de Sécurité Confidentielle), toute la narration de #Dusk se boucle. XSC ne sert pas simplement de conteneur de valeur comme l'ERC-20, il intègre un moteur de règles. Cela signifie que le jeton lui-même a la capacité de "refuser" des transferts non conformes, plutôt que de dépendre de l filtrage ultérieur des échanges centralisés. C'est une décentralisation du pouvoir et une reconstruction de l'autorité.

Je suis de plus en plus convaincu que cette approche de l'exécution de la conformité au niveau du protocole - plutôt que de dépendre d'audits externes - bien que le seuil technique soit extrêmement élevé, a une valeur stratégique inestimable. Elle tente d'atteindre une "conformité de niveau autorisé" sur une "blockchain publique sans permission", ce qui non seulement résout la contradiction fondamentale entre la réglementation et la décentralisation, mais empêche également la liquidité d'être fragmentée par d'innombrables îlots de chaînes privées. Une fois que les valeurs mobilières seront massivement mises sur la chaîne à l'avenir, des architectures comme Citadel pourraient très bien devenir des normes obligatoires de base. Cela dépasse déjà l'innovation technique au niveau du code, c'est une réécriture fondamentale des mécanismes de confiance financière. #dusk $DUSK
Voir l’original
Récemment, en réfléchissant à la logique d'évolution des mécanismes de consensus, je réalise de plus en plus une contradiction largement sous-estimée : la preuve de participation (PoS) présente une faiblesse structurelle en matière de résistance à la censure. Lorsque nous parlons de blockchains publiques axées sur la confidentialité, notre attention est presque entièrement concentrée sur la protection cryptographique des données de transaction (Transmissional Privacy), tout en ignorant une question plus fondamentale : le risque d'exposition des validateurs (Validator) eux-mêmes. Cela m'a poussé à réévaluer les solutions techniques de Layer 1, jusqu'à ce que le protocole byzantin de classification (SBA) @Dusk_Foundation me fasse réaliser qu'ils s'attaquent en réalité à un problème plus profond : comment faire en sorte que le processus de consensus lui-même devienne une partie de la protection de la vie privée ? Il est donc nécessaire de mentionner leur conception de la "preuve d'enchère aveugle" (Proof of Blind Bid). La subtilité de ce mécanisme réside dans le fait qu'il renverse fondamentalement les règles du jeu du PoS traditionnel. Dans les solutions traditionnelles, les grands acteurs doivent "exhiber leur richesse" pour se disputer le droit de créer des blocs, tandis que #Dusk permet aux nœuds de participer à la loterie sans dévoiler leur identité ni la taille de leur mise. C'est comme faire un tirage au sort dans une pièce où l'on ne voit rien, seuls les gagnants apparaissent brièvement à l'instant de la victoire, puis disparaissent dans l'obscurité. Cette conception a une signification pour les nœuds institutionnels qui est bien plus profonde qu'il n'y paraît. Elle apporte une sécurité des infrastructures sans précédent. Les attaquants ne peuvent pas prédire l'identité du prochain nœud de création de blocs, perdant ainsi la possibilité de lancer des attaques DDoS ciblées ou de mettre en œuvre des pots-de-vin. C'est cela la véritable concrétisation de la décentralisation en matière de sécurité, et non simplement l'édification d'une ligne de défense en empilant des seuils matériels coûteux. De plus, ce mécanisme de tirage au sort basé sur la preuve à divulgation nulle de connaissance (Sortition), associé à la caractéristique de la finalité de règlement instantanée (Instant Settlement Finality), m'a donné une confiance totalement différente lors de l'évaluation de la faisabilité de la mise en chaîne des actifs RWA. Pour les actifs financiers conformes, la bifurcation de la chaîne représente une ligne rouge de risque à tolérance zéro, tandis que l'anonymat des validateurs constitue la dernière porte de défense contre la manipulation du marché. Le marché actuel est trop obsédé par la compétition numérique TPS, mais la voie de Dusk, qui s'acharne sur la confidentialité et la sécurité au niveau des algorithmes de consensus, est précisément celle que doit emprunter une blockchain de niveau financier. Le "travail lent et minutieux" dans l'itération technologique se traduit par une "stabilité à toute épreuve" dans l'exploitation réelle, cette logique résiste à l'examen. #dusk $DUSK
Récemment, en réfléchissant à la logique d'évolution des mécanismes de consensus, je réalise de plus en plus une contradiction largement sous-estimée : la preuve de participation (PoS) présente une faiblesse structurelle en matière de résistance à la censure. Lorsque nous parlons de blockchains publiques axées sur la confidentialité, notre attention est presque entièrement concentrée sur la protection cryptographique des données de transaction (Transmissional Privacy), tout en ignorant une question plus fondamentale : le risque d'exposition des validateurs (Validator) eux-mêmes. Cela m'a poussé à réévaluer les solutions techniques de Layer 1, jusqu'à ce que le protocole byzantin de classification (SBA) @Dusk me fasse réaliser qu'ils s'attaquent en réalité à un problème plus profond : comment faire en sorte que le processus de consensus lui-même devienne une partie de la protection de la vie privée ?

Il est donc nécessaire de mentionner leur conception de la "preuve d'enchère aveugle" (Proof of Blind Bid). La subtilité de ce mécanisme réside dans le fait qu'il renverse fondamentalement les règles du jeu du PoS traditionnel. Dans les solutions traditionnelles, les grands acteurs doivent "exhiber leur richesse" pour se disputer le droit de créer des blocs, tandis que #Dusk permet aux nœuds de participer à la loterie sans dévoiler leur identité ni la taille de leur mise. C'est comme faire un tirage au sort dans une pièce où l'on ne voit rien, seuls les gagnants apparaissent brièvement à l'instant de la victoire, puis disparaissent dans l'obscurité.

Cette conception a une signification pour les nœuds institutionnels qui est bien plus profonde qu'il n'y paraît. Elle apporte une sécurité des infrastructures sans précédent. Les attaquants ne peuvent pas prédire l'identité du prochain nœud de création de blocs, perdant ainsi la possibilité de lancer des attaques DDoS ciblées ou de mettre en œuvre des pots-de-vin. C'est cela la véritable concrétisation de la décentralisation en matière de sécurité, et non simplement l'édification d'une ligne de défense en empilant des seuils matériels coûteux.

De plus, ce mécanisme de tirage au sort basé sur la preuve à divulgation nulle de connaissance (Sortition), associé à la caractéristique de la finalité de règlement instantanée (Instant Settlement Finality), m'a donné une confiance totalement différente lors de l'évaluation de la faisabilité de la mise en chaîne des actifs RWA. Pour les actifs financiers conformes, la bifurcation de la chaîne représente une ligne rouge de risque à tolérance zéro, tandis que l'anonymat des validateurs constitue la dernière porte de défense contre la manipulation du marché.

Le marché actuel est trop obsédé par la compétition numérique TPS, mais la voie de Dusk, qui s'acharne sur la confidentialité et la sécurité au niveau des algorithmes de consensus, est précisément celle que doit emprunter une blockchain de niveau financier. Le "travail lent et minutieux" dans l'itération technologique se traduit par une "stabilité à toute épreuve" dans l'exploitation réelle, cette logique résiste à l'examen. #dusk $DUSK
Voir l’original
Récemment, en révisant la piste de confidentialité Layer 1, j'ai pris conscience d'un problème souvent négligé mais crucial : presque toutes les blockchains publiques sont coincées entre les extrêmes de "l'anonymat complet" et "la régulation totale", sans jamais toucher au véritable cœur de la question - comment permettre aux capitaux institutionnels d'entrer en toute confiance ? Pour les institutions financières traditionnelles, l'anonymat pur constitue un risque systémique inacceptable ; mais une blockchain complètement transparente expose les secrets commerciaux et les données de transactions sensibles. C'est justement dans cette paradoxale situation, qui a été maintes fois réfutée mais que personne ne peut résoudre, que le choix technologique de @Dusk_Foundation commence à révéler son unicité. J'ai passé un temps considérable à étudier leur architecture de base construite sur des preuves à connaissance nulle, en particulier la logique de conception de la machine virtuelle Rusk. La clé ici ne réside pas seulement dans "la protection de la vie privée", mais dans une problématique plus profonde : "Comment prouver la validité des résultats de calcul sans exposer le processus de calcul ?" Contrairement aux solutions qui tentent de rafistoler les chaînes existantes, Dusk a choisi un chemin plus difficile mais plus complet - intégrer directement le système de preuve PLONK au niveau du consensus. Cette approche de reconstruction depuis la racine implique effectivement un cycle de développement long et anxiogène, mais d'un point de vue de la logique interne de l'évolution technologique, c'est précisément le seul chemin de base viable pour réaliser RegDeFi (finance décentralisée réglementée). Lorsque j'ai analysé en profondeur le modèle d'accès mémoire à zéro copie de Piecrust VM, une question plus essentielle a émergé : si nous voulons vraiment que les RWA (actifs du monde réel) soient largement intégrés sur la blockchain, alors la détermination finale des transactions et le débit doivent atteindre des normes institutionnelles, et ne peuvent pas rester au niveau des blockchains "à peine utilisables". Les contrats intelligents confidentiels de Dusk offrent une solution extrêmement sophistiquée - ils permettent aux transactions de réaliser des vérifications de conformité telles que KYC et AML grâce à du code automatisé, tout en ne divulguant pas les montants précis et l'identité des parties prenantes. Cela représente en réalité une tentative de résoudre un problème apparemment insoluble : comment satisfaire simultanément les exigences de protection de la vie privée au niveau du RGPD tout en préservant l'immutabilité et la capacité d'audit inhérentes à la blockchain ? Le marché actuel est saturé de divers récits à court terme et de bruits spéculatifs, mais si nous partons de la logique de base de l'implémentation du code, nous découvrirons que $DUSK ne parie pas sur une frénésie de liquidités d'un tour, mais sur les normes d'infrastructure de la couche de règlement financier future. #dusk
Récemment, en révisant la piste de confidentialité Layer 1, j'ai pris conscience d'un problème souvent négligé mais crucial : presque toutes les blockchains publiques sont coincées entre les extrêmes de "l'anonymat complet" et "la régulation totale", sans jamais toucher au véritable cœur de la question - comment permettre aux capitaux institutionnels d'entrer en toute confiance ? Pour les institutions financières traditionnelles, l'anonymat pur constitue un risque systémique inacceptable ; mais une blockchain complètement transparente expose les secrets commerciaux et les données de transactions sensibles. C'est justement dans cette paradoxale situation, qui a été maintes fois réfutée mais que personne ne peut résoudre, que le choix technologique de @Dusk commence à révéler son unicité.

J'ai passé un temps considérable à étudier leur architecture de base construite sur des preuves à connaissance nulle, en particulier la logique de conception de la machine virtuelle Rusk. La clé ici ne réside pas seulement dans "la protection de la vie privée", mais dans une problématique plus profonde : "Comment prouver la validité des résultats de calcul sans exposer le processus de calcul ?" Contrairement aux solutions qui tentent de rafistoler les chaînes existantes, Dusk a choisi un chemin plus difficile mais plus complet - intégrer directement le système de preuve PLONK au niveau du consensus. Cette approche de reconstruction depuis la racine implique effectivement un cycle de développement long et anxiogène, mais d'un point de vue de la logique interne de l'évolution technologique, c'est précisément le seul chemin de base viable pour réaliser RegDeFi (finance décentralisée réglementée).

Lorsque j'ai analysé en profondeur le modèle d'accès mémoire à zéro copie de Piecrust VM, une question plus essentielle a émergé : si nous voulons vraiment que les RWA (actifs du monde réel) soient largement intégrés sur la blockchain, alors la détermination finale des transactions et le débit doivent atteindre des normes institutionnelles, et ne peuvent pas rester au niveau des blockchains "à peine utilisables". Les contrats intelligents confidentiels de Dusk offrent une solution extrêmement sophistiquée - ils permettent aux transactions de réaliser des vérifications de conformité telles que KYC et AML grâce à du code automatisé, tout en ne divulguant pas les montants précis et l'identité des parties prenantes. Cela représente en réalité une tentative de résoudre un problème apparemment insoluble : comment satisfaire simultanément les exigences de protection de la vie privée au niveau du RGPD tout en préservant l'immutabilité et la capacité d'audit inhérentes à la blockchain ?

Le marché actuel est saturé de divers récits à court terme et de bruits spéculatifs, mais si nous partons de la logique de base de l'implémentation du code, nous découvrirons que $DUSK ne parie pas sur une frénésie de liquidités d'un tour, mais sur les normes d'infrastructure de la couche de règlement financier future. #dusk
Voir l’original
L'enceinte et la rupture des preuves à connaissance nulle : un essai nocturne sur l'architecture de DuskEn regardant ces rapports de prévision du marché sur les RWA (Real World Assets) à l'écran, j'ai toujours l'impression que la plupart des gens se trompent sur une logique fondamentale. Tout le monde parle de la prime de liquidité liée à "l'activation des actifs sur la chaîne", mais peu de gens examinent réellement la question sous-jacente : sans une couche de conformité et de confidentialité native, il est tout simplement impossible pour les capitaux institutionnels d'entrer massivement sur le marché. Ce n'est pas seulement un problème technique, c'est une question d'éthique commerciale et de règles de survie. JP Morgan ne pourrait jamais tolérer Goldman Sachs surveillant en temps réel leurs fluctuations de position sur la chaîne, tout comme aucune société de fonds spéculatifs ne souhaiterait rendre publiques ses stratégies alpha. Les blockchains publiques d'aujourd'hui ont une transparence excessive, allant jusqu'à un niveau de "nudité".

L'enceinte et la rupture des preuves à connaissance nulle : un essai nocturne sur l'architecture de Dusk

En regardant ces rapports de prévision du marché sur les RWA (Real World Assets) à l'écran, j'ai toujours l'impression que la plupart des gens se trompent sur une logique fondamentale. Tout le monde parle de la prime de liquidité liée à "l'activation des actifs sur la chaîne", mais peu de gens examinent réellement la question sous-jacente : sans une couche de conformité et de confidentialité native, il est tout simplement impossible pour les capitaux institutionnels d'entrer massivement sur le marché.
Ce n'est pas seulement un problème technique, c'est une question d'éthique commerciale et de règles de survie. JP Morgan ne pourrait jamais tolérer Goldman Sachs surveillant en temps réel leurs fluctuations de position sur la chaîne, tout comme aucune société de fonds spéculatifs ne souhaiterait rendre publiques ses stratégies alpha. Les blockchains publiques d'aujourd'hui ont une transparence excessive, allant jusqu'à un niveau de "nudité".
Voir l’original
La dernière bataille concernant les preuves à divulgation nulle de connaissance, l'explosion d'état et les RWA - Reconstruire ma compréhension de l'architecture de @dusk_foundationLe bruit de la pluie à l'extérieur est un peu fort, mais cela me permet justement de me concentrer à nouveau sur la question du cadre de confidentialité Layer 1 qui me tracasse depuis quelques semaines. En regardant les solutions Rollup qui tentent d'appliquer de manière rigide une couche de confidentialité sur l'EVM, avec des patchs empilés sur des patchs dans le code, je suis de plus en plus convaincu que nous pourrions suivre une voie qui sacrifie la sécurité native pour la compatibilité. Ce n'est qu'après avoir relu le livre blanc de la Dusk Foundation et la documentation de Piecrust VM sur GitHub que cette sensation de boucle logique s'est rétablie. Ce n'est pas seulement une question de mettre des actifs sur la blockchain, mais de savoir comment permettre à ces actifs de circuler librement sous le regard des régulateurs sans exposer les secrets commerciaux sous-jacents.

La dernière bataille concernant les preuves à divulgation nulle de connaissance, l'explosion d'état et les RWA - Reconstruire ma compréhension de l'architecture de @dusk_foundation

Le bruit de la pluie à l'extérieur est un peu fort, mais cela me permet justement de me concentrer à nouveau sur la question du cadre de confidentialité Layer 1 qui me tracasse depuis quelques semaines. En regardant les solutions Rollup qui tentent d'appliquer de manière rigide une couche de confidentialité sur l'EVM, avec des patchs empilés sur des patchs dans le code, je suis de plus en plus convaincu que nous pourrions suivre une voie qui sacrifie la sécurité native pour la compatibilité. Ce n'est qu'après avoir relu le livre blanc de la Dusk Foundation et la documentation de Piecrust VM sur GitHub que cette sensation de boucle logique s'est rétablie. Ce n'est pas seulement une question de mettre des actifs sur la blockchain, mais de savoir comment permettre à ces actifs de circuler librement sous le regard des régulateurs sans exposer les secrets commerciaux sous-jacents.
Voir l’original
Récemment, j'ai profondément examiné l'évolution de l'architecture sous-jacente de Layer 2, et une question a progressivement émergé : alors que l'attention du marché est excessivement concentrée sur la piste Rollup, avons-nous manqué certaines voies technologiques oubliées par le temps mais toujours éclatantes ? Cela m'a poussé à réévaluer la conception des canaux d'état de @Plasma . Étonnamment, son minimalisme basé sur le modèle UTXO, montrant une élégance dans certains scénarios particuliers, demeure irremplaçable. D'où vient donc cette élégance ? En réexaminant la structure de données des arbres de Merkle, la réponse devient progressivement claire : l'efficacité de compression d'état que Plasma démontre lors du traitement d'interactions à haute fréquence trouve son origine dans son approche complètement différente du "disponibilité des données". Rollup dépend fortement des Calldata sur la chaîne - cela garantit certes que les données sont vérifiables sur Layer 1, mais cela les contraint également aux limites d'espace de bloc du réseau principal. En revanche, la philosophie de conception de #plasma est plus proche d'une pensée "le réseau principal est la cour" : le réseau principal ne se charge que des preuves et de l'arbitrage, et non du stockage de toutes les données. Cette division du travail représente essentiellement une libération totale des ressources rares de Layer 1. Cependant, une question inévitable se pose : les principales préoccupations de la communauté concernant Plasma - "attaque par rétention de données" et les frictions d'expérience utilisateur résultant de la période de défi - sont-elles vraiment sans solution ? J'ai commencé à envisager une possibilité : si nous ne nous enfermions pas dans le cadre de l'équivalence EVM générale, mais nous concentrions plutôt sur des scénarios à fort volume comme la confirmation de droit et le paiement, en combinant les preuves de validité matures d'aujourd'hui pour optimiser le processus de "jeu de sortie", cela pourrait-il résoudre le nœud mort que Plasma MVP a rencontré à l'époque ? Cette focalisation sur le scénario pourrait être la clé pour briser l'impasse. Lorsque je simule à plusieurs reprises dans mon esprit le scénario de "sortie massive" dans des conditions extrêmes, la détermination mathématique de Merkle Sum Tree me donne une réponse ferme : tant que la chaîne principale peut supporter la soumission du hachage racine, la sécurité des fonds constitue un cycle complet. Cela me fait réaliser que plutôt que de continuer à faire des ajouts sur un niveau déjà congestionné, il vaudrait mieux complètement externaliser le calcul. Ce type de ancrage de confiance reposant sur la cryptographie plutôt que sur l'honnêteté des validateurs est la solution la plus séduisante de l'architecture @plasma dans le triangle impossibilité d'évolutivité - elle échange la rigidité mathématique contre l'élasticité de l'architecture. #plasma $XPL
Récemment, j'ai profondément examiné l'évolution de l'architecture sous-jacente de Layer 2, et une question a progressivement émergé : alors que l'attention du marché est excessivement concentrée sur la piste Rollup, avons-nous manqué certaines voies technologiques oubliées par le temps mais toujours éclatantes ? Cela m'a poussé à réévaluer la conception des canaux d'état de @Plasma . Étonnamment, son minimalisme basé sur le modèle UTXO, montrant une élégance dans certains scénarios particuliers, demeure irremplaçable.

D'où vient donc cette élégance ? En réexaminant la structure de données des arbres de Merkle, la réponse devient progressivement claire : l'efficacité de compression d'état que Plasma démontre lors du traitement d'interactions à haute fréquence trouve son origine dans son approche complètement différente du "disponibilité des données". Rollup dépend fortement des Calldata sur la chaîne - cela garantit certes que les données sont vérifiables sur Layer 1, mais cela les contraint également aux limites d'espace de bloc du réseau principal. En revanche, la philosophie de conception de #plasma est plus proche d'une pensée "le réseau principal est la cour" : le réseau principal ne se charge que des preuves et de l'arbitrage, et non du stockage de toutes les données. Cette division du travail représente essentiellement une libération totale des ressources rares de Layer 1.

Cependant, une question inévitable se pose : les principales préoccupations de la communauté concernant Plasma - "attaque par rétention de données" et les frictions d'expérience utilisateur résultant de la période de défi - sont-elles vraiment sans solution ? J'ai commencé à envisager une possibilité : si nous ne nous enfermions pas dans le cadre de l'équivalence EVM générale, mais nous concentrions plutôt sur des scénarios à fort volume comme la confirmation de droit et le paiement, en combinant les preuves de validité matures d'aujourd'hui pour optimiser le processus de "jeu de sortie", cela pourrait-il résoudre le nœud mort que Plasma MVP a rencontré à l'époque ? Cette focalisation sur le scénario pourrait être la clé pour briser l'impasse.

Lorsque je simule à plusieurs reprises dans mon esprit le scénario de "sortie massive" dans des conditions extrêmes, la détermination mathématique de Merkle Sum Tree me donne une réponse ferme : tant que la chaîne principale peut supporter la soumission du hachage racine, la sécurité des fonds constitue un cycle complet. Cela me fait réaliser que plutôt que de continuer à faire des ajouts sur un niveau déjà congestionné, il vaudrait mieux complètement externaliser le calcul. Ce type de ancrage de confiance reposant sur la cryptographie plutôt que sur l'honnêteté des validateurs est la solution la plus séduisante de l'architecture @plasma dans le triangle impossibilité d'évolutivité - elle échange la rigidité mathématique contre l'élasticité de l'architecture. #plasma $XPL
Voir l’original
La « non-consensus » de la fin de l'évolutivité : reconstruire la philosophie architecturale et les frontières de données de @plasma à l'ère ZKLa ville dehors est déjà endormie, mais mon esprit est plus éveillé que durant la journée. Récemment, tout le secteur du Layer 2 est en fête, célébrant l'implémentation de l'EIP-4844 et discutant de combien le Blob a réduit le coût des Rollups. Mais je regarde ces soi-disant données de transaction « à bas coût » — 0,01 dollar par transaction, ce qui peut effectivement être négligeable pour les transferts financiers, mais que faire si je veux transférer chaque action de chaque jeu sur la chaîne (FOCG) ou chaque interaction à haute fréquence sur un réseau social ? Ce nombre est toujours trop grand. Si vous comprenez vraiment où se situent les goulets d'étranglement des systèmes distribués, vous réaliserez que nous entrons dans une impasse. Nous sommes trop obsédés par le concept de « Rollup » au point d'ignorer l'architecture la plus élégante et la plus sous-estimée de l'histoire de l'évolutivité de la blockchain : @plasma.

La « non-consensus » de la fin de l'évolutivité : reconstruire la philosophie architecturale et les frontières de données de @plasma à l'ère ZK

La ville dehors est déjà endormie, mais mon esprit est plus éveillé que durant la journée. Récemment, tout le secteur du Layer 2 est en fête, célébrant l'implémentation de l'EIP-4844 et discutant de combien le Blob a réduit le coût des Rollups. Mais je regarde ces soi-disant données de transaction « à bas coût » — 0,01 dollar par transaction, ce qui peut effectivement être négligeable pour les transferts financiers, mais que faire si je veux transférer chaque action de chaque jeu sur la chaîne (FOCG) ou chaque interaction à haute fréquence sur un réseau social ?
Ce nombre est toujours trop grand.
Si vous comprenez vraiment où se situent les goulets d'étranglement des systèmes distribués, vous réaliserez que nous entrons dans une impasse. Nous sommes trop obsédés par le concept de « Rollup » au point d'ignorer l'architecture la plus élégante et la plus sous-estimée de l'histoire de l'évolutivité de la blockchain : @plasma.
Voir l’original
Le marché des chaînes publiques est maintenant saturé, tout le monde rivalise sur les chiffres de TPS, ou parle de ce "décentralisé à 100%". Mais pour être honnête, ces choses me laissent de moins en moins d'impression. Je pense depuis un certain temps à une question : qu'est-ce qui empêche réellement l'adoption de masse ? Ce n'est pas la technologie elle-même, mais ces coûts invisibles cachés sous la surface — comment gérer la conformité, comment rendre compte des émissions de carbone, comment se connecter au monde des affaires traditionnel. C'est cela le véritable point de blocage. Sous cet angle, certaines de ses pratiques m'ont fait prêter un peu plus attention. En traduisant sa documentation technique, j'ai réalisé une chose : il y a maintenant des chaînes compatibles EVM partout, ce n'est plus vraiment un point fort, c'est à peine passable. Ce qui m'a vraiment arrêté, c'est sa manière de comprendre les verticales "divertissement" et "marque". À y réfléchir autrement, si je devais lancer une DApp destinée à plusieurs millions d'utilisateurs ordinaires, qu'est-ce qui me ferait le plus peur ? Ce n'est pas que la chaîne ne soit pas assez cool, mais que les utilisateurs partent à cause de quelques centimes de coût d'interaction, ou que mes partenaires Web2 — comme ces grandes entreprises de jeux — refusent de collaborer à cause des controverses sur la consommation d'énergie de la blockchain. C'est cela le véritable obstacle dans le monde réel. La conception de l'architecture de Vanar Chain semble clairement ciblée sur ce point douloureux. Elle a laissé de côté le fardeau des récits financiers et est revenue à deux choses essentielles : l'efficacité des coûts et l'écologie. Je pense que sa véritable valeur réside dans la tentative d'éliminer la résistance psychologique lors de l'entrée des géants du Web2. En termes de choix technologiques, elle ressemble davantage à une optimisation spécifique pour des scénarios d'interaction à haute fréquence et faible densité de valeur, plutôt que de vouloir créer une plateforme polyvalente. Cette approche d'intégration verticale est beaucoup plus fiable que ceux qui crient tous les jours qu'ils veulent "tuer Ethereum". C'est aussi un point qui me tient particulièrement à cœur lors du choix technologique : le projet résout-il réellement des problèmes commerciaux concrets ou est-ce juste un concept. L'agencement écologique de @Vanar semble clairement orienté vers une mise en œuvre pratique. Si on ne peut même pas résoudre les deux conditions préalables de la neutralité carbone et des frais de gaz extrêmement bas, toutes les discussions sur le métavers et l'explosion des jeux blockchain ne sont que des paroles en l'air, et au final, on ne peut que tourner en rond dans l'existant. Le chemin que prend Vanar pourrait être le véritable point d'entrée du Web3 vers le trafic mainstream. Bien sûr, dire c'est bien, mais il faut aussi continuer à suivre les données réelles de son réseau principal, surtout en ce qui concerne la performance de stabilité sous des charges extrêmes. #vanar $VANRY
Le marché des chaînes publiques est maintenant saturé, tout le monde rivalise sur les chiffres de TPS, ou parle de ce "décentralisé à 100%". Mais pour être honnête, ces choses me laissent de moins en moins d'impression. Je pense depuis un certain temps à une question : qu'est-ce qui empêche réellement l'adoption de masse ? Ce n'est pas la technologie elle-même, mais ces coûts invisibles cachés sous la surface — comment gérer la conformité, comment rendre compte des émissions de carbone, comment se connecter au monde des affaires traditionnel. C'est cela le véritable point de blocage. Sous cet angle, certaines de ses pratiques m'ont fait prêter un peu plus attention.

En traduisant sa documentation technique, j'ai réalisé une chose : il y a maintenant des chaînes compatibles EVM partout, ce n'est plus vraiment un point fort, c'est à peine passable. Ce qui m'a vraiment arrêté, c'est sa manière de comprendre les verticales "divertissement" et "marque". À y réfléchir autrement, si je devais lancer une DApp destinée à plusieurs millions d'utilisateurs ordinaires, qu'est-ce qui me ferait le plus peur ? Ce n'est pas que la chaîne ne soit pas assez cool, mais que les utilisateurs partent à cause de quelques centimes de coût d'interaction, ou que mes partenaires Web2 — comme ces grandes entreprises de jeux — refusent de collaborer à cause des controverses sur la consommation d'énergie de la blockchain. C'est cela le véritable obstacle dans le monde réel.

La conception de l'architecture de Vanar Chain semble clairement ciblée sur ce point douloureux. Elle a laissé de côté le fardeau des récits financiers et est revenue à deux choses essentielles : l'efficacité des coûts et l'écologie. Je pense que sa véritable valeur réside dans la tentative d'éliminer la résistance psychologique lors de l'entrée des géants du Web2. En termes de choix technologiques, elle ressemble davantage à une optimisation spécifique pour des scénarios d'interaction à haute fréquence et faible densité de valeur, plutôt que de vouloir créer une plateforme polyvalente. Cette approche d'intégration verticale est beaucoup plus fiable que ceux qui crient tous les jours qu'ils veulent "tuer Ethereum".
C'est aussi un point qui me tient particulièrement à cœur lors du choix technologique : le projet résout-il réellement des problèmes commerciaux concrets ou est-ce juste un concept. L'agencement écologique de @Vanarchain semble clairement orienté vers une mise en œuvre pratique. Si on ne peut même pas résoudre les deux conditions préalables de la neutralité carbone et des frais de gaz extrêmement bas, toutes les discussions sur le métavers et l'explosion des jeux blockchain ne sont que des paroles en l'air, et au final, on ne peut que tourner en rond dans l'existant.
Le chemin que prend Vanar pourrait être le véritable point d'entrée du Web3 vers le trafic mainstream. Bien sûr, dire c'est bien, mais il faut aussi continuer à suivre les données réelles de son réseau principal, surtout en ce qui concerne la performance de stabilité sous des charges extrêmes. #vanar $VANRY
Voir l’original
Réflexion non linéaire sur la logique sous-jacente de la chaîne Vanar et son adoption à grande échelleIl est deux heures du matin, et je fais encore le point sur l'évolution récente des infrastructures de marché. J'ai récemment examiné un ensemble de données Layer 1 et j'ai remarqué un phénomène très intéressant : bien que le secteur des chaînes publiques semble saturé, il y a en réalité très peu de scénarios à forte concurrence capables de supporter des 'utilisateurs non natifs de la cryptographie'. Beaucoup d'indicateurs TPS des chaînes sont très bons en environnement de laboratoire, mais dès qu'on entre dans des scénarios d'interaction à haute fréquence dans la réalité - en particulier ceux impliquant la lecture et l'écriture de métadonnées complexes (Metadata) dans des jeux ou des applications de divertissement, la performance se dégrade de manière très significative. C'est aussi la raison pour laquelle j'ai passé beaucoup de temps récemment à réexaminer @Vanar .

Réflexion non linéaire sur la logique sous-jacente de la chaîne Vanar et son adoption à grande échelle

Il est deux heures du matin, et je fais encore le point sur l'évolution récente des infrastructures de marché. J'ai récemment examiné un ensemble de données Layer 1 et j'ai remarqué un phénomène très intéressant : bien que le secteur des chaînes publiques semble saturé, il y a en réalité très peu de scénarios à forte concurrence capables de supporter des 'utilisateurs non natifs de la cryptographie'. Beaucoup d'indicateurs TPS des chaînes sont très bons en environnement de laboratoire, mais dès qu'on entre dans des scénarios d'interaction à haute fréquence dans la réalité - en particulier ceux impliquant la lecture et l'écriture de métadonnées complexes (Metadata) dans des jeux ou des applications de divertissement, la performance se dégrade de manière très significative.
C'est aussi la raison pour laquelle j'ai passé beaucoup de temps récemment à réexaminer @Vanarchain .
Voir l’original
Dans les interstices de la confidentialité et de la conformité, j'ai vu l'ombre de DuskLe bruit de la pluie à l'extérieur est un peu fort, mais cela me permet de me concentrer davantage pour réfléchir. Récemment, ce cercle est vraiment trop fou, avec des MEMES qui volent partout, l'analyse fondamentale semble être devenue une blague. Mais je pense toujours qu'une fois que la bulle se sera dissipée, ceux qui nagent nus seront finalement gênés, tandis que ceux qui posent silencieusement des tuyaux au fond de l'eau seront les maîtres du prochain cycle. Je viens de relire le document technique @Dusk_Foundation et, pour être honnête, plus je regarde, plus je pense que ce n'est pas juste un projet, mais plutôt une sorte de 'prévision' du futur système financier. #Dusk Je me suis toujours posé une question : pourquoi la blockchain a-t-elle crié pendant tant d'années RWA (actifs du monde réel en chaîne), et jusqu'à présent, il n'y a eu que du bruit et peu de pluie ?

Dans les interstices de la confidentialité et de la conformité, j'ai vu l'ombre de Dusk

Le bruit de la pluie à l'extérieur est un peu fort, mais cela me permet de me concentrer davantage pour réfléchir. Récemment, ce cercle est vraiment trop fou, avec des MEMES qui volent partout, l'analyse fondamentale semble être devenue une blague. Mais je pense toujours qu'une fois que la bulle se sera dissipée, ceux qui nagent nus seront finalement gênés, tandis que ceux qui posent silencieusement des tuyaux au fond de l'eau seront les maîtres du prochain cycle.
Je viens de relire le document technique @Dusk et, pour être honnête, plus je regarde, plus je pense que ce n'est pas juste un projet, mais plutôt une sorte de 'prévision' du futur système financier.
#Dusk
Je me suis toujours posé une question : pourquoi la blockchain a-t-elle crié pendant tant d'années RWA (actifs du monde réel en chaîne), et jusqu'à présent, il n'y a eu que du bruit et peu de pluie ?
Connectez-vous pour découvrir d’autres contenus
Découvrez les dernières actus sur les cryptos
⚡️ Prenez part aux dernières discussions sur les cryptos
💬 Interagissez avec vos créateurs préféré(e)s
👍 Profitez du contenu qui vous intéresse
Adresse e-mail/Nº de téléphone
Plan du site
Préférences en matière de cookies
CGU de la plateforme