Hace unos días probé la generación de vídeos con Everlyn-1, es realmente rápido obtener un vídeo en 16 segundos, pero antes siempre me preocupaba dónde se guardaban los datos de entrenamiento y los vídeos resultantes. Las facturas de AWS subían más rápido que la iteración del modelo, hasta que descubrí que toda su capa de datos estaba alojada en Walrus. Curioso, investigué un poco más, y ¡vaya! incluso el conjunto de entrenamiento, los puntos de control y la caché KV se habían migrado completamente. Dicen que usan una tecnología de codificación llamada Red‑Stuff, que reduce el costo de almacenamiento casi al mínimo. Para nuestro equipo, que genera cientos de fragmentos de prueba al día, el costo se ha reducido a la mitad.

Lo que más me sorprendió fue el manejo de archivos fragmentados. Antes, guardar muchos archivos pequeños en lote era lento y propenso a perder fotogramas, pero la solución Quilt de Walrus puede empaquetar rápidamente secuencias de fotogramas dispersos y restaurar automáticamente su estructura original al leerlos, ahorrándonos incluso el tiempo de preprocesamiento. En cuanto a su integración con la cadena Sui, fue la guinda del pastel: los ingresos se liquidan en segundos mediante contratos inteligentes y los datos se certifican en la cadena en tiempo real, haciendo que crear contenido sea realmente tranquilo.

Ahora veo que el almacenamiento descentralizado no es solo para "respaldar", sino que se ha convertido en el eje de la cadena de trabajo de vídeos de IA. Everlyn dio un paso acertado: redujo los costos, aumentó la eficiencia y fortaleció aún más el ecosistema. Dicen que próximamente abrirán una API para integrar herramientas de terceros, así que tal vez la próxima vez, nuestros filtros o complementos que desarrollamos puedan ejecutarse directamente en Walrus.

#walrus $WAL @Walrus 🦭/acc