Continuando con el Google turboquant de hoy

@xingpt Hermano, este artículo va al grano

El espacio de HBM ahorrado no se considerará un ahorro de costos, sino que se utilizará para hacer tres cosas:

Ventanas de contexto más largas: Antes solo se podía leer un artículo, ahora se pueden leer cien libros a la vez

Tamaño de Batch más grande: La misma tarjeta gráfica puede servir a más usuarios al mismo tiempo

Explosión de AI en el extremo: Introduciendo grandes modelos en teléfonos y PC

¿No lo entiendes? Aquí tienes una versión TL;DR para principiantes

Uno de los grandes ganadores confirmados en Ai2.0 - Guangtong

El aumento de la potencia de cálculo y el aumento en el contexto de procesamiento significan que el volumen de intercambio de datos entre nodos será más aterrador, la comunicación óptica #LITE sigue siendo un gran ganador a largo plazo.

No importa cómo cambie el modelo, la manufactura subyacente siempre dependerá de

Estrategia de selección de memoria:

Si vas a comprar memoria, deberías enfocarte en las empresas que se benefician de la demanda de almacenamiento (SSD/NAND) y la tendencia principal de #HBM (como #Micron #MU).

Evita a aquellos fabricantes secundarios que promueven conceptos de SRAM / alternativas de HBM (como Winbond y Apacer), porque TurboQuant ha demostrado que la compresión de software es la solución óptima para el cuello de botella de HBM, y esos planes alternativos han sido desechados de inmediato.

Recuerda seguir a @WaterX_app aquí para llenar la lista de espera.

Seguiré esforzándome por buscar y agregar más activos relacionados con RWA de acciones estadounidenses... 303...

https://x.com/waterx_app/status/2030308806807503279?s=61