#GTC2026 Nvidia (NVDA) a lancé son événement GTC à San Jose, Californie, lundi, présentant un certain nombre de puces et de plateformes allant de sa toute nouvelle unité de traitement du langage Nvidia Groq 3 (LPU) à son énorme unité centrale de traitement Vera (CPU) conçue pour rivaliser avec les offres d'Intel (INTC) et d'AMD (AMD). Au total, Nvidia a déclaré qu'elle déploie cinq énormes racks de serveurs, chacun servant à des fins différentes à l'intérieur des centres de données IA.
L'annonce la plus importante de l'ensemble est cependant la puce Nvidia Groq 3. Nvidia a annoncé qu'elle avait conclu un accord pour licencier la technologie de Groq et avait embauché le fondateur Jonathan Ross, le président Sunny Madra et d'autres membres de l'équipe Groq dans le cadre d'un accord de 20 milliards de dollars en décembre. Les processeurs de Groq se concentrent sur l'inférence IA, ou l'exécution de modèles IA. C'est ce qui se passe lorsque vous tapez quelque chose dans ChatGPT d'OpenAI (OPAI.PVT), Claude d'Anthropic (ANTH.PVT) ou Gemini de Google (GOOG, GOOGL) et obtenez une réponse.
Les unités de traitement graphique (GPU) de Nvidia sont polyvalentes et peuvent à la fois former et exécuter des modèles IA, mais alors que le marché de l'IA évolue vers l'exécution de modèles, s'assurer que l'entreprise dispose d'une puce d'inférence dédiée est devenu primordial.