#GTC2026 Nvidia (NVDA) dio inicio a su evento GTC en San José, California, el lunes, presentando una serie de chips y plataformas que van desde su nueva unidad de procesamiento de lenguaje (LPU) Nvidia Groq 3 hasta su masivo rack de unidad de procesamiento central (CPU) Vera, diseñado para competir directamente con las ofertas de Intel (INTC) y AMD (AMD) En total, Nvidia dijo que está lanzando cinco enormes racks de servidores, cada uno sirviendo diferentes propósitos dentro de los centros de datos de IA.
El anuncio más grande de todos, sin embargo, es el chip Nvidia Groq 3. Nvidia anunció que había llegado a un acuerdo para licenciar tecnología de Groq y contrató al fundador Jonathan Ross, al presidente Sunny Madra y a otros miembros del equipo de Groq como parte de un acuerdo de $20 mil millones en diciembre. Los procesadores de Groq se centran en la inferencia de IA, o en ejecutar modelos de IA. Es lo que sucede cuando escribes algo en ChatGPT de OpenAI (OPAI.PVT), Claude de Anthropic (ANTH.PVT) o Gemini de Google (GOOG, GOOGL) y obtienes una respuesta.
Las unidades de procesamiento gráfico (GPUs) de Nvidia son multipropósito y pueden tanto entrenar como ejecutar modelos de IA, pero a medida que el mercado de IA avanza hacia la ejecución de modelos, asegurar que la empresa tenga un chip de inferencia dedicado se ha vuelto primordial.