Google a annoncé l'unité de traitement de tenseurs (TPU) de septième génération, nom de code Ironwood, en avril 2025.

Ironwood est conçu spécifiquement pour les charges de travail d'inférence (c'est-à-dire l'exécution de modèles entraînés) plutôt que principalement pour les former.

Les points forts techniques incluent :

Configuration à grande échelle : des pods de jusqu'à 9,216 puces.

Revendiquer des performances : une grande configuration (9,216 puces) peut offrir ~42,5 exaFLOPS (dans leur métrique spécifiée) de calcul.

Mémoire et interconnexion : grande capacité HBM (High Bandwidth Memory) partagée et réseaux d'interconnexion avancés entre puces pour minimiser la latence et le mouvement des données.

Google positionne cette puce comme faisant partie de son architecture “AI Hypercomputer” pour son infrastructure cloud.

Le lancement est destiné à soutenir de grands modèles de langage (LLMs), des modèles mélange d'experts (MoE), des charges de travail lourdes en raisonnement/inférence plutôt que juste un entraînement brut.

#goggle