#GTC2026 Nvidia (NVDA) começou seu evento GTC em San Jose, Califórnia, na segunda-feira, apresentando uma série de chips e plataformas que variam desde sua nova unidade de processamento de linguagem Nvidia Groq 3 (LPU) até seu enorme rack de unidade central de processamento (CPU) Vera, projetado para competir diretamente com as ofertas da Intel (INTC) e AMD (AMD). No total, a Nvidia disse que está lançando cinco enormes racks de servidores, cada um servindo a diferentes propósitos dentro dos centros de dados de IA.
O maior anúncio do grupo, no entanto, é o chip Nvidia Groq 3. A Nvidia anunciou que havia firmado um acordo para licenciar tecnologia da Groq e contratou o fundador Jonathan Ross, o presidente Sunny Madra e outros membros da equipe Groq como parte de um acordo de $20 bilhões em dezembro. Os processadores da Groq focam na inferência de IA, ou na execução de modelos de IA. É o que acontece quando você digita algo no ChatGPT da OpenAI (OPAI.PVT), no Claude da Anthropic (ANTH.PVT) ou no Gemini do Google (GOOG, GOOGL) e recebe uma resposta.
As unidades de processamento gráfico (GPUs) da Nvidia são multifuncionais e podem tanto treinar quanto executar modelos de IA, mas à medida que o mercado de IA avança para a execução de modelos, garantir que a empresa tenha um chip dedicado à inferência se tornou fundamental.