Google đã công bố đơn vị xử lý tensor thế hệ thứ bảy (TPU), mã hiệu Ironwood, vào tháng 4 năm 2025.

Ironwood được thiết kế đặc biệt cho các khối lượng công việc suy diễn (tức là, chạy các mô hình đã được đào tạo) thay vì chủ yếu là đào tạo chúng.

Các điểm nổi bật kỹ thuật bao gồm:

Cấu hình quy mô: các cụm lên đến 9.216 chip.

Các tuyên bố về hiệu suất: một cấu hình lớn (9.216 chip) có thể cung cấp ~42,5 exaFLOPS (theo chỉ số đã chỉ định của họ) về tính toán.

Bộ nhớ & kết nối: dung lượng HBM lớn chia sẻ (Bộ nhớ băng thông cao) và các mạng kết nối giữa các chip tiên tiến để giảm thiểu độ trễ & di chuyển dữ liệu.

Google định vị chip này như một phần của kiến trúc “AI Hypercomputer” cho cơ sở hạ tầng đám mây của mình.

Việc ra mắt nhằm hỗ trợ các mô hình ngôn ngữ lớn (LLMs), các mô hình hỗn hợp chuyên gia (MoE), và các khối lượng công việc nặng về lý luận/suy diễn thay vì chỉ đơn thuần đào tạo.

#goggle