延續今天Google turboquant 里面

@xingpt 哥的這篇直擊要點

省下來的 HBM空間不會被當作成本省下來,而是會被拿去做三件事:

​更長的上下文視窗 : 以前只能讀一篇文章,現在可以一次讀一百本書

​更大的 Batch Size: 同一張顯示卡可以同時服務更多使用者

​端側 AI (Edge AI) 爆發: 把大模型硬塞進手機和 PC 裡

看不懂?来个Tldr小白版埋伏版

Ai2.0裡面,真正的确认的其中一个大贏家-光通

​算力變強、處理的上下文變多,意味著節點間的 資料交換量會更恐怖,光通訊 #AVGO , #MRVL #LITE 依然是長線大贏家

​不管模型怎麼變,$NVDA 底層代工都要靠 #TSM

​記憶體的選股策略:

​如果要買記憶體,應該專注在受惠於儲存需求(SSD/NAND)和主流 #HBM 趨勢的公司(如 #美光 #MU)

​避開那些炒作類 SRAM / 客棧化替代 HBM概念的二線廠(如 華邦電、愛普),因為 TurboQuant 證明了軟體壓縮才是解決 HBM 瓶頸的最優解,這些替代方案的實質訂單馬上被脫底褲了。

順便記得去 @WaterX_app 這裡追蹤填入waitlist

會继续努力在搜寻聚合更多美股rwa相关的优质资_ 303…

https://x.com/waterx_app/status/2030308806807503279?s=61