ARM akan meluncurkan CPU AGI dengan proses 3nm, menganalisis perubahan kebutuhan perangkat keras yang disebabkan oleh perubahan perangkat lunak AI dan perubahan paradigma investasi dari hal ini.

Satu, status aplikasi AI dari CPU ARM

ARM digunakan untuk arsitektur CPU ponsel, CPU seri M Apple juga beralih ke arsitektur mirip ARM, dan kini secara diam-diam telah menguasai pangsa pasar yang cukup besar di pasar server AI. (Artikel ini tidak membahas kelebihan dan kekurangan set instruksi yang diperkecil, kinerja di pasar ponsel dan penggunaan CPU yang dikembangkan sendiri oleh Apple sudah terbukti.)

ARM tidak sepenuhnya menggantikan x86 di semua skenario server, tetapi lebih memilih untuk menguasai lapisan kontrol untuk beban kerja AI dan cloud-native. Tingkat penetrasi server AI (CPU yang baru ditambahkan dalam penyebaran) telah mencapai 20–30%, dan terus meningkat. Keuntungannya terletak pada pemenuhan kebutuhan komputasi, kontrol skenario, dapat disesuaikan, efisiensi energi, dan lain-lain.

Dua, lompatan arsitektur CPU AGI: dari berbasis komputasi ke berbasis data.

2.1 Pergeseran indikator: definisi kinerja berubah.

  • Bisnis tradisional, standar pengukuran CPU:

  • GHz (frekuensi: jumlah siklus operasi CPU per detik)

  • IPC (Instructions Per Cycle: jumlah instruksi yang dieksekusi per siklus)

CPU di era AI yang diwakili oleh AGI (di bawah ini semua disebut 'era AI') performanya:

  • Bandwidth Memori (kapasitas transfer data per unit waktu)

  • IO Throughput (kecepatan data masuk/keluar)

  • Latency (waktu yang dibutuhkan data untuk mencapai unit komputasi)

2.2 Analisis batasan pertumbuhan di masa lalu:

Pertumbuhan GPU terlalu cepat, bandwidth data seperti memori tidak bisa mengikuti.

2.3 Perubahan batasan arsitektur yang disebabkan oleh perangkat lunak:

Tradisional: dibatasi oleh kemampuan komputasi CPU dan GPU.

Era AI: kinerja dibatasi oleh bandwidth memori/IO dan lainnya.

2.4 Mengakibatkan sudut pandang CPU didefinisikan ulang:

Tradisional: CPU = inti komputasi.

Era AI: tugas komputasi + penjadwalan data + pengendalian aliran inti.

Tiga, perubahan sisi aplikasi AI: dari kebutuhan komputasi ke kebutuhan data.

3.1 Analisis batasan aplikasi AI yang terpisah:

Pelatihan LLM, bottleneck adalah bandwidth data.

Tugas inferensi dan pencarian, bottleneck ada di kapasitas memori dan IO.

Infrastruktur harus memenuhi: kebutuhan percepatan inferensi, pencarian basis data vektor, dan solusi mengarah pada bagaimana cara lebih baik dalam penjadwalan dan optimasi? Bagaimana agar ruang fisik cukup dekat? Bagaimana memperluas bandwidth? Bagaimana agar ruang cukup besar? Semua ini adalah arah yang perlu diperhatikan dalam investasi di bawah kebutuhan baru.

Empat, HBM (High Bandwidth Memory, memori bandwidth tinggi): 'minyak baru' di era AI.

  • DDR5, bandwidth: 50–100 GB/s.

  • HBM, bandwidth: 800–1000+ GB/s.

Di server AI, GPU + HBM menyusun total 50–70%, di mana HBM menyita 20% hingga 30% dari biaya pengeluaran bagian ini.

Lima, CXL (Compute Express Link): variabel kunci untuk efisiensi sumber daya.

Tradisional: memori dan CPU satu-satu, tingkat pemanfaatan rendah.

CXL: arah kolam memori bersama. Perkembangan membutuhkan proses, seperti arsitektur memori terpadu Apple di mana CPU dan GPU berbagi, algoritma CPU ARM AGI lebih lanjut berbagi tanpa perlu memindahkan hasil perhitungan berulang kali, hingga berbagi kluster multi-CPU GPU, dan hingga berbagi kolam memori di beberapa server. Perkembangan teknologi tidak bisa instan, terobosan batasan harus diselesaikan dari solusi arsitektur fisik yang paling mendasar.

Dari sudut pandang investasi: pengontrol CXL (chip inti), perangkat perluasan memori (hardware peningkatan kapasitas), lapisan perangkat lunak pusat data (penjadwalan sumber daya).

Enam, pergeseran paradigma investasi: dari komputasi ke aliran data.

6.1 Lapisan komputasi + lapisan penjadwalan.

  • GPU untuk komputasi khusus.

  • CPU menambah penjadwalan data + pengendalian aliran.

Lapisan komputasi + lapisan penjadwalan harus berubah untuk memenuhi kebutuhan baru, yang secara langsung mempengaruhi pangsa pasar perangkat di masa depan.

6.2 Lapisan data

  • HBM (bottleneck bandwidth).

  • Penyimpanan (bottleneck kapasitas).

Tingkat kepastian yang paling kuat, ambang teknologi menentukan kekuasaan penetapan harga, semuanya adalah perusahaan oligopoli di pasar.

6.3 Lapisan transmisi

NVLink (interkoneksi chip berkecepatan tinggi), CXL (jaringan memori), dan arah lainnya memiliki ruang imajinasi yang besar, tetapi harus mengikuti perkembangan arsitektur penjadwalan perangkat keras dan perangkat lunak, dengan banyak alternatif yang tersedia.

Cara aliran modal yang dapat diprediksi: CPU → GPU → Memori → Interkoneksi.

Arah artikel ini berlaku untuk pasar saham AS, berlaku untuk transaksi on-chain dalam proses t-99, juga berlaku untuk pemilihan proyek kripto. Jika ada pertanyaan, silakan berinteraksi!