Kontynuacja dzisiejszego Google turboquant
@xingpt Bracie, ten tekst trafia w sedno
Zaoszczędzona przestrzeń HBM nie będzie traktowana jako oszczędność kosztów, ale zostanie wykorzystana do trzech rzeczy:
Dłuższe okno kontekstowe: wcześniej można było przeczytać tylko jeden artykuł, teraz można przeczytać jednocześnie sto książek
Większy rozmiar wsadu: Ta sama karta graficzna może jednocześnie obsługiwać więcej użytkowników
Sztuczna inteligencja na krawędzi (Edge AI) wybuch: Wciśnięcie dużego modelu do telefonu komórkowego i PC
Nie rozumiesz? Oto wersja TL;DR dla nowicjuszy
W Ai2.0 jednym z prawdziwych zwycięzców - Guangtong
Wzrost mocy obliczeniowej i zwiększona ilość kontekstu do przetworzenia oznaczają, że ilość wymiany danych między węzłami będzie bardziej przerażająca, komunikacja optyczna #LITE nadal jest długoterminowym zwycięzcą.
Bez względu na to, jak zmieniają się modele, podstawowa produkcja musi polegać na
Strategia wyboru akcji w pamięci:
Jeśli chcesz kupić pamięć, powinieneś skupić się na firmach, które korzystają z rosnącego zapotrzebowania na przechowywanie (SSD/NAND) oraz głównych trendów #HBM (jak #Micron #MU).
Unikaj tych drugorzędnych producentów, którzy promują SRAM / zastępcze HBM (jak Winbond, Apacer), ponieważ TurboQuant udowodnił, że kompresja oprogramowania jest najlepszym rozwiązaniem w przypadku wąskich gardeł HBM, a realne zamówienia na te alternatywne rozwiązania zostały natychmiast anulowane.
Pamiętaj, aby śledzić @WaterX_app tutaj, aby dołączyć do listy oczekujących
Będę kontynuować wysiłki w poszukiwaniu agregacji więcej wartościowych aktywów związanych z amerykańskim rynkiem 303…
https://x.com/waterx_app/status/2030308806807503279?s=61
