Die Spieler von Filecoin und Arweave, es ist Zeit, einen neuen Ansatz zu verfolgen
Jahrelang wurde über dezentrale Speicherung geredet, warum kreisen die meisten Projekte dennoch um kalte Daten? Das Problem liegt in der Grundlogik – die Leute wollen Daten immer wieder hunderte Male kopieren und weltweit auf Knoten verteilen. Diese Methode funktioniert gut für Kontenbücher, doch bei KI-Modellen, 4K-Videos und anderen "Riesen" mit mehreren hundert GB steigen die Kosten sofort exponentiell an.
Daher war ich beeindruckt, als ich sah, dass Walrus mit einer Technologie namens "Red Stuff" nur mit 4-5-facher Redundanz eine große Anzahl ausfallender Knoten bewältigen kann. Ich erkannte, dass sich die Spielregeln tatsächlich verändern könnten. Es geht nicht mehr um leere Parolen wie "Dezentralisierung für immer", sondern um eine äußerst praktische ingenieurtechnische Lösung: algorithmische Redundanz anstelle von roher physischer Kopie. @Walrus 🦭/acc
Die Kostenrechnung ist am deutlichsten. Traditionelle Cloud-Speicherung kostet für 1 TB möglicherweise mehrere hundert Dollar, während Lösungen auf dieser neuen Logik die Kosten auf einstellige Werte drücken können. Dieses Einsparpotential ist keinesfalls gering – für KI-Unternehmen, die täglich riesige Datenmengen verarbeiten, ist dies ein echter Wettbewerbsvorteil.
Walrus hat eine klare Strategie: Es zielt nicht darauf ab, ein digitales Grab für alles zu werden, sondern auf jene Daten, die häufig zugegriffen und dynamisch aktualisiert werden – sogenannte "heiße Daten". Wenn der Wert der Daten selbst den Rechenleistungswert übersteigt, wer kann diese heißen Daten effizient, kostengünstig und sicher "pflegen", der hat die Tür zur nächsten Generation des Internets in der Hand.



