Fortsetzung von Google turboquant heute

@xingpt Bruder, dieser Beitrag trifft den Punkt

Der eingesparte HBM-Speicher wird nicht als Kostensenkung betrachtet, sondern wird verwendet, um drei Dinge zu tun:

Längere Kontextfenster: Früher konnte man nur einen Artikel lesen, jetzt kann man gleichzeitig hundert Bücher lesen

Größere Batch-Größe: Dieselbe Grafikkarte kann gleichzeitig mehr Benutzer bedienen

Edge AI-Ausbruch: Große Modelle in Smartphones und PCs quetschen

Verstehst du nicht? Hier ist eine TLDR-Version für Anfänger

Einer der großen Gewinner in Ai2.0 - Lichtwelle

Mit zunehmender Rechenleistung und mehr Kontext, der verarbeitet wird, bedeutet dies, dass das Datenvolumen zwischen den Knoten erschreckender wird; Lichtkommunikation #AVGO , #MRVL #LITE bleibt ein langfristiger Gewinner.

Egal, wie sich das Modell verändert, die zugrunde liegende Fertigung muss auf #TSM angewiesen sein.

Aktienauswahlstrategie für Speicher:

Wenn du Speicher kaufen möchtest, solltest du dich auf Unternehmen konzentrieren, die von der Speicheranforderung (SSD/NAND) und dem Mainstream #HBM-Trend profitieren (wie #Micron #MU).

Vermeide diese überbewerteten SRAM / plattformisierten Alternativen zu HBM-Konzepten von Zweitunternehmen (wie Winbond, Apacer), denn TurboQuant hat bewiesen, dass Softwarekompression die optimale Lösung für das HBM-Flaschenhalsproblem ist; die tatsächlichen Bestellungen dieser Alternativen wurden sofort abgelehnt.

Vergiss nicht, @WaterX_app hier zu folgen und auf die Warteliste einzutragen.

Ich werde weiterhin daran arbeiten, mehr qualitativ hochwertige RWA-bezogene US-Aktien zu aggregieren 303…

https://x.com/waterx_app/status/2030308806807503279?s=61