Kontynuacja dzisiejszego Google turboquant

@xingpt Bracie, ten tekst trafia w sedno

Zaoszczędzona przestrzeń HBM nie będzie traktowana jako oszczędność kosztów, ale zostanie wykorzystana do trzech rzeczy:

​Dłuższe okno kontekstowe: wcześniej można było przeczytać tylko jeden artykuł, teraz można przeczytać jednocześnie sto książek

​Większy rozmiar wsadu: Ta sama karta graficzna może jednocześnie obsługiwać więcej użytkowników

​Sztuczna inteligencja na krawędzi (Edge AI) wybuch: Wciśnięcie dużego modelu do telefonu komórkowego i PC

Nie rozumiesz? Oto wersja TL;DR dla nowicjuszy

W Ai2.0 jednym z prawdziwych zwycięzców - Guangtong

Wzrost mocy obliczeniowej i zwiększona ilość kontekstu do przetworzenia oznaczają, że ilość wymiany danych między węzłami będzie bardziej przerażająca, komunikacja optyczna #LITE nadal jest długoterminowym zwycięzcą.

Bez względu na to, jak zmieniają się modele, podstawowa produkcja musi polegać na

Strategia wyboru akcji w pamięci:

Jeśli chcesz kupić pamięć, powinieneś skupić się na firmach, które korzystają z rosnącego zapotrzebowania na przechowywanie (SSD/NAND) oraz głównych trendów #HBM (jak #Micron #MU).

Unikaj tych drugorzędnych producentów, którzy promują SRAM / zastępcze HBM (jak Winbond, Apacer), ponieważ TurboQuant udowodnił, że kompresja oprogramowania jest najlepszym rozwiązaniem w przypadku wąskich gardeł HBM, a realne zamówienia na te alternatywne rozwiązania zostały natychmiast anulowane.

Pamiętaj, aby śledzić @WaterX_app tutaj, aby dołączyć do listy oczekujących

Będę kontynuować wysiłki w poszukiwaniu agregacji więcej wartościowych aktywów związanych z amerykańskim rynkiem 303…

https://x.com/waterx_app/status/2030308806807503279?s=61