Récemment, le projet du laboratoire a été bloqué à cause des coûts de stockage des données. Le patron trouve que la facture AWS S3 devient de plus en plus absurde, et un senior m'a suggéré d'utiliser IPFS, mais j'ai vraiment des réserves à propos de ces histoires de services de Pinning qui échouent et provoquent la 'disparition' des données. Il se trouve que j'ai vu sur Twitter il y a quelques jours qu'il y avait quelque chose de nouveau dans l'écosystème Move, qui disait pouvoir découper les données et les jeter dans un réseau décentralisé, tout en étant aussi rapide qu'un CDN. Avec l'état d'esprit de 'tenter le tout pour le tout', j'ai décidé de consacrer ces 48 heures du week-end à essayer de télécharger notre ensemble de données d'entraînement de plusieurs centaines de Go, pour voir si ce prétendu gars utilisant la technologie de codage 'RedStuff' est vraiment fiable.
La première impression que j'ai eue en l'ayant entre les mains est « léger », vraiment léger. Lorsque j'ai configuré un nœud Filecoin, les exigences matérielles m'ont fait reculer en tant qu'étudiant pauvre. Le disque dur n'avait pas encore démarré que le bruit du ventilateur ressemblait déjà à un hélicoptère qui décolle. Mais l'outil CLI de ce protocole s'est installé de manière étonnamment fluide, sans aucun message d'erreur de bibliothèque de dépendance superflue, ce qui est vraiment rare dans l'expérience de développement Web3. J'ai tapé une commande, j'ai balancé un fichier compressé de 5 Go, pensant que, comme avec Arweave, je devrais d'abord calculer le coût de stockage permanent, ou comme avec Filecoin, attendre que les mineurs prennent la commande jusqu'à la fin des temps, et finalement, la barre de progression dans le terminal a commencé à avancer régulièrement.
Je ne peux pas m'empêcher de mentionner sa technologie clé, qui est, selon moi, la plus « sexy » — le code de correction d’erreurs en deux dimensions. En termes simples, il ne fait pas de nombreuses sauvegardes de copies comme le stockage cloud traditionnel, et ne s'empile pas comme un fou sur la puissance de calcul pour faire des preuves de copie comme Filecoin. Il découpe mes fichiers en d'innombrables blobs (objets binaires) comme on coupe des oignons, puis utilise la magie mathématique pour disperser ces fragments à travers divers nœuds du réseau. Même si plus de la moitié des nœuds se déconnectent soudainement ou s'enfuient, je peux toujours récupérer mes données sans aucune perte. J'ai simulé plusieurs fois la déconnexion de nœuds dans mon dortoir, et la vitesse de récupération était si rapide que je pensais qu'ils n'avaient jamais quitté le réseau, mais étaient juste sur mon disque dur local.
Mais les problèmes viennent avec, et j'ai découvert un phénomène très étrange lors des tests, à savoir le soi-disant « coût de stockage ». Bien que la documentation officielle indique qu'il est bien inférieur aux coûts de duplication de 25 fois ou plus comme Filecoin, nécessitant seulement 4 à 5 fois de redondance, dans la pratique, j'ai constaté que le coût des métadonnées pour de petits fichiers n'est pas négligeable. Si vous essayez, comme moi, de télécharger des dizaines de milliers de petites images pour faire des métadonnées NFT, la façon de calculer les frais de gaz et de stockage peut vous donner un peu mal à la tête. En comparaison, il semble préférer avaler de gros fichiers, quand vous jetez des vidéos de plusieurs Go ou des instantanés de bases de données, le rapport qualité-prix grimpe instantanément.
Comparé aux produits concurrents, IPFS ressemble à une bibliothèque publique non gérée, où les livres peuvent disparaître à tout moment ; Filecoin ressemble plus à un coffre-fort profondément enterré, où il est facile de déposer mais difficile de retirer, et la vitesse de recherche est si lente qu'elle peut vous faire douter de la vie ; alors que ce nouveau protocole me donne l'impression d'être un service de stockage décentralisé, avec une vitesse si rapide qu'il peut non seulement faire du stockage à froid, mais même être utilisé directement comme backend pour le streaming. J'ai essayé de récupérer la vidéo que je venais de télécharger directement via le passerelle HTTP dans le navigateur, le buffering s'est presque ouvert instantanément, ce qui est absolument une percée dans le domaine du stockage décentralisé.
Cependant, l'expérience n'est pas parfaite. Ce week-end, j'ai passé à peu près la moitié de mon temps à lutter avec son robinet (Faucet). Les jetons du réseau de test sont plus difficiles à obtenir que le véritable Bitcoin, j'ai dû cliquer une dizaine de fois pour qu'il en tombe un peu, juste assez pour que je puisse terminer quelques cas de test. De plus, le navigateur actuel, bien qu'il puisse trouver l'ID du blob, reste trop geek pour les non-techniciens, rempli de valeurs de hachage et de caractères illisibles, manquant de cette vue de gestion de fichiers « ce que vous voyez est ce que vous obtenez ». Si vous n'êtes pas du genre à taper du code sur un terminal à fond noir avec des lettres vertes, à ce stade, vous pourriez encore trouver la courbe d'apprentissage un peu élevée.
Mais c'est précisément là que je pense qu'il a une opportunité. Web3 n'arrête pas de parler de l'adoption massive, mais même pour stocker une photo de profil, il faut passer une éternité sur IPFS, comment cela pourrait-il être à grande échelle ? Ce protocole transforme directement le stockage en un objet natif sur la chaîne Sui, ce qui signifie que les futurs contrats intelligents peuvent lire et écrire des données directement, et même les agents IA peuvent automatiquement acheter de l'espace pour stocker des modèles, cette programmabilité est le cauchemar que les grands services cloud redoutent le plus. Bien qu'il ait encore de nombreux bugs, je pense avoir aperçu l'avenir de ce que devrait être un disque dur Internet décentralisé.
@Walrus 🦭/acc $WAL

