Nvidia reportó ingresos trimestrales récord de $39.3 mil millones, lo que representa un 12% más que el trimestre anterior y un 78% más que el año pasado. El CEO Jensen Huang afirmó que las ventas de los chips Blackwell están "superando todas las expectativas", y las GPU en la nube están agotadas. Para el próximo trimestre, la compañía pronostica $43 mil millones.

Paralelamente, en Memphis, Elon Musk está construyendo a través de xAI el clúster más grande del mundo para entrenar IA. Colossus 2 contendrá más de medio millón de GPU de Nvidia después de su finalización en 2026. Los primeros 110 mil chips ya están siendo instalados.

Números que hablan de dominio

Las escalas son impresionantes. Nvidia ahora representa alrededor del 8% del peso total del índice S&P 500 — la mayor concentración para una acción en medio siglo. La empresa cobra alrededor de $3 millones por rack con 72 GPU Blackwell y envía aproximadamente 1000 de esos racks por semana.

En la conferencia GTC en marzo, Huang cambió el enfoque de los chips a las 'fábricas de IA' — entornos computacionales especializados donde el procesamiento masivo de datos crea y despliega sistemas de inteligencia artificial. Cada sistema GB200 NVL72 contiene más de 600 mil componentes y funciona como una sola máquina gigante, proporcionando un rendimiento 30 veces más rápido en comparación con los sistemas anteriores para modelos de IA con un billón de parámetros.

La complejidad crea una barrera de protección. No son servidores que se pueden ensamblar a partir de componentes estándar. Se trata de sistemas diseñados con precisión, que requieren refrigeración líquida de 120 kilovatios por rack, conexiones especiales a 130 terabytes por segundo entre GPU y software que maneja decenas de miles de chips como una sola máquina.

Por qué los chips propios no reducen la brecha

Sobre el papel, el nuevo TPU Ironwood de Google parece competitivo. Cada chip ofrece 4.6 petaflops de cálculos para IA — un poco más que los 4.5 petaflops de Nvidia B200. Google puede escalarlos en módulos de 9216 chips con soporte teórico de hasta 400 mil aceleradores en un solo clúster.

Pero hay un problema: los TPU solo funcionan dentro de Google Cloud. Si quieres ejecutar tareas en varios proveedores de nube, construir tu propia infraestructura o usar marcos fuera del ecosistema de Google, Nvidia sigue siendo la única opción.

Los chips Trainium de Amazon enfrentan limitaciones similares. AWS afirma tener una ventaja de costo y rendimiento del 30-40% en comparación con otros proveedores, pero solo para tareas que funcionan completamente en la nube de Amazon. Los chips están especializados para tareas específicas y no tienen la flexibilidad universal que permite al hardware de Nvidia manejar el entrenamiento, el ajuste fino y la salida en cualquier marco.

Para una empresa que gasta $100 mil millones en infraestructura, que debe generar ingresos en dos años, apostar por hardware propietario de un solo proveedor de nube es un riesgo que la mayoría no tomará.

La verdadera barrera: el ecosistema

La ventaja de Nvidia no radica solo en el silicio. Se trata de décadas de desarrollo de software, herramientas y capacitación de ingenieros.

La plataforma de programación CUDA, que Nvidia ha desarrollado desde 2006, sirve prácticamente todos los principales marcos de IA, incluidos PyTorch, TensorFlow y JAX. Cambiar a un chip de un competidor a menudo significa reescribir el código, volver a entrenar al personal y aceptar que algunas funciones simplemente no funcionarán.

Las ofertas de trabajo que mencionan 'CUDA' siguen superando significativamente en número a aquellas que mencionan alternativas. Cuando el curso de aprendizaje automático en Stanford agregó el marco JAX de Google como opción predeterminada en 2025, fue notable precisamente porque CUDA sigue siendo el estándar desde hace más de diez años.

Nvidia también ha construido relaciones en toda la cadena de suministro. La empresa trabaja con más de 200 socios tecnológicos en más de 150 fábricas en todo el mundo. Compañías de energía, especialistas en refrigeración, desarrolladores de centros de datos e incluso grandes firmas de inversión ahora forman parte de la red de Nvidia.

Este ecosistema significa que el CEO que compra infraestructura de Nvidia no solo obtiene chips. Obtiene una estrategia integral con soporte global.

¿Qué puede cambiar?

La economía está cambiando en áreas específicas. Para tareas de salida de alta carga, donde ejecutas repetidamente un modelo a gran escala, el TPU de Google y los chips Trainium de Amazon pueden ofrecer un mejor valor por token en comparación con las GPU universales de Nvidia.

Algunas empresas están haciendo la transición en silencio. Anthropic se comprometió a un millón de TPU de Google en octubre de 2025. Midjourney, según informes, ha trasladado gran parte de su carga de generación de imágenes del hardware de Nvidia a TPU de Google Cloud, reduciendo significativamente los costos mensuales.

¿Pero el entrenamiento de nuevos modelos avanzados? Nvidia sigue siendo necesaria aquí. Cuando xAI necesitó construir el sistema más potente del mundo para entrenar IA, no buscaron alternativas. Colossus 2 utiliza chips Nvidia GB200.

El panorama competitivo es real: el TPU Ironwood de Google ha igualado a Nvidia en características básicas. La serie MI350 de AMD ofrece una alternativa para las empresas que desean tener un segundo proveedor. Pero cumplir con las especificaciones en pruebas no es lo mismo que cumplir con un conjunto completo de software, soporte y cadenas de suministro que Nvidia ha construido durante décadas.

¿Qué significa esto para los demás?

Para los inversores, la imagen es clara: el dominio de Nvidia no es frágil, pero tampoco está garantizado para siempre. La empresa debe continuar avanzando más rápido que los competidores que finalmente están creando alternativas dignas.

Para las empresas que crean sistemas de IA, el cálculo depende de la situación. Si estás entrenando modelos avanzados o necesitas flexibilidad para trabajar con diferentes nubes y marcos, Nvidia sigue siendo el estándar. Si estás ejecutando tareas masivas de salida dentro de una sola nube, la economía de los chips especializados merece una evaluación seria.

Para todos los demás, esta carrera por la infraestructura te afecta independientemente de si usas IA directamente o no. La electricidad que alimenta estos centros de datos está provocando un aumento en las tarifas. Las cadenas de suministro que sirven a estas fábricas están cambiando la producción global.

Nvidia no solo vende hardware. Está construyendo la base de lo que Huang llama la 'era de la IA'. Si esta base seguirá siendo exclusivamente propiedad de Nvidia o se volverá más competitiva — de esto dependerá mucho sobre cómo se desarrollará la próxima década.

Opinión de IA

Desde la perspectiva del análisis de datos, el dominio actual de Nvidia recuerda a la situación de Intel en la década de 1990, cuando la empresa controlaba la infraestructura computacional crítica. La historia muestra que tal concentración inevitablemente atrae la atención de los reguladores — particularmente en el contexto de la seguridad nacional de EE.UU. y China.

El análisis macroeconómico revela un riesgo oculto de sostenibilidad energética. Los centros de datos de gigavatios, como Colossus 2, consumen electricidad equivalente a ciudades enteras, lo que puede enfrentar restricciones en las redes eléctricas ya en 2026-2027. La computación cuántica y los chips neuromórficos siguen siendo 'cisnes negros', capaces de cambiar radicalmente la arquitectura de los cálculos de IA. La situación también muestra un paradoja: cuanto más construyen las empresas alternativas a Nvidia, mayor es el riesgo sistémico para toda la industria en caso de fallos en las cadenas de suministro de semiconductores taiwaneses.

#NVIDIA #AI #Write2Earn

$BTC

BTC
BTC
92,986.03
+2.07%