Niedawno, zdobywca Nagrody Turinga z 2017 roku, znany jako „ojciec RISC”, David Patterson, niedawno opublikował artykuł wspólnie z inżynierem Google DeepMind, Ma Xiaoyu, w IEEE Computer pt. „Wyzwania i kierunki badań dotyczące sprzętu do wnioskowania dużych modeli językowych”, co wzbudziło zainteresowanie i dyskusję w kręgach technologicznych.
David Patterson, twórca architektury RISC, który wpłynął na projektowanie 99% procesorów na świecie, na początku artykułu stawia ostry osąd: obecna koncepcja projektowania chipów AI, czyli pełne obciążenie mocy obliczeniowej, stosowanie HBM (High Bandwidth Memory, pamięć o wysokiej przepustowości) oraz priorytetowa łączność z szerokim pasmem, jest poważnie niedopasowana do rzeczywistych potrzeb wnioskowania dużych modeli językowych.
W pewnym sensie można powiedzieć, że jest to mocne ostrzeżenie dla całego przemysłu chipów AI. Patterson w artykule jasno stwierdza, że wnioskowanie LLM znajduje się w kryzysie, nie technologicznym, ale ekonomicznym. Ponieważ coraz więcej firm odkrywa, że nawet posiadając najnowocześniejsze klastry GPU, świadczenie usług wnioskowania dla najnowocześniejszych modeli wciąż wiąże się z ogromnymi kosztami.
Według wielu raportów medialnych, cztery wielkie koncerny technologiczne, Microsoft, Amazon, Google i Meta, w 2026 roku przewidują, że całkowite wydatki kapitałowe związane z AI osiągną około 600 miliardów dolarów. W porównaniu do około 388 miliardów dolarów w 2025 roku, to wzrost o ponad 50%.
Mimo że konkretne liczby mogą się różnić, to jednak w branży panuje konsensus: koszty wnioskowania pochłaniają zyski firm AI. Z jednej strony rosnące koszty, z drugiej strony eksplozja popytu, ten przemysł przechodzi ciężką próbę ekonomiczną.

$IR

