Fortsetzung von Google turboquant heute
@xingpt Bruder, dieser Beitrag trifft den Punkt
Der eingesparte HBM-Speicher wird nicht als Kostensenkung betrachtet, sondern wird verwendet, um drei Dinge zu tun:
Längere Kontextfenster: Früher konnte man nur einen Artikel lesen, jetzt kann man gleichzeitig hundert Bücher lesen
Größere Batch-Größe: Dieselbe Grafikkarte kann gleichzeitig mehr Benutzer bedienen
Edge AI-Ausbruch: Große Modelle in Smartphones und PCs quetschen
Verstehst du nicht? Hier ist eine TLDR-Version für Anfänger
Einer der großen Gewinner in Ai2.0 - Lichtwelle
Mit zunehmender Rechenleistung und mehr Kontext, der verarbeitet wird, bedeutet dies, dass das Datenvolumen zwischen den Knoten erschreckender wird; Lichtkommunikation #AVGO , #MRVL #LITE bleibt ein langfristiger Gewinner.
Egal, wie sich das Modell verändert, die zugrunde liegende Fertigung muss auf #TSM angewiesen sein.
Aktienauswahlstrategie für Speicher:
Wenn du Speicher kaufen möchtest, solltest du dich auf Unternehmen konzentrieren, die von der Speicheranforderung (SSD/NAND) und dem Mainstream #HBM-Trend profitieren (wie #Micron #MU).
Vermeide diese überbewerteten SRAM / plattformisierten Alternativen zu HBM-Konzepten von Zweitunternehmen (wie Winbond, Apacer), denn TurboQuant hat bewiesen, dass Softwarekompression die optimale Lösung für das HBM-Flaschenhalsproblem ist; die tatsächlichen Bestellungen dieser Alternativen wurden sofort abgelehnt.
Vergiss nicht, @WaterX_app hier zu folgen und auf die Warteliste einzutragen.
Ich werde weiterhin daran arbeiten, mehr qualitativ hochwertige RWA-bezogene US-Aktien zu aggregieren 303…
https://x.com/waterx_app/status/2030308806807503279?s=61