Nvidia ha riportato un fatturato trimestrale record di $39,3 miliardi, con un aumento del 12% rispetto al trimestre precedente e del 78% rispetto a un anno fa. Il CEO Jensen Huang ha dichiarato che le vendite dei chip Blackwell stanno «superando tutte le aspettative», e le GPU cloud sono esaurite. Per il prossimo trimestre, l'azienda prevede $43 miliardi.
Parallelamente, a Memphis, Elon Musk sta costruendo attraverso xAI il cluster di apprendimento AI più grande al mondo. Colossus 2 conterrà oltre mezzo milione di GPU di Nvidia dopo il completamento nel 2026. I primi 110 mila chip sono già in fase di installazione.
Numeri che parlano di dominanza
Le dimensioni sono impressionanti. Nvidia ora rappresenta circa l'8% del peso totale dell'indice S&P 500 — la più alta concentrazione per un'azione in mezzo secolo. L'azienda chiede circa 3 milioni di dollari per un rack con 72 GPU Blackwell e spedisce circa 1000 di questi rack a settimana.
Alla conferenza GTC di marzo, Huang ha spostato l'attenzione dai chip alle 'fabbriche AI' — ambienti di calcolo specializzati in cui l'elaborazione massiccia dei dati crea e distribuisce sistemi di intelligenza artificiale. Ogni sistema GB200 NVL72 contiene oltre 600 mila componenti e funziona come un enorme computer, offrendo prestazioni 30 volte più veloci rispetto ai sistemi precedenti per modelli AI con un trilione di parametri.
La complessità crea una barriera protettiva. Non si tratta di server che possono essere assemblati da componenti standard. Si tratta di sistemi progettati con precisione, che richiedono raffreddamento liquido di 120 kilowatt per rack, connessioni speciali con velocità di 130 terabyte al secondo tra GPU e software, che gestisce decine di migliaia di chip come un'unica macchina.
Perché i chip proprietari non riducono il divario
Sulla carta, il nuovo TPU Ironwood di Google sembra competitivo. Ogni chip produce 4,6 petaflop di calcoli per AI — leggermente più di 4,5 petaflop di Nvidia B200. Google può scalarli in moduli da 9216 chip con supporto teorico fino a 400 mila acceleratori in un cluster.
Ma c'è un problema: i TPU funzionano solo all'interno di Google Cloud. Se desideri eseguire compiti su più fornitori di cloud, costruire la tua infrastruttura o utilizzare framework al di fuori dell'ecosistema Google, Nvidia rimane l'unica opzione.
I chip Trainium di Amazon affrontano limitazioni simili. AWS afferma di avere un vantaggio in termini di rapporto qualità-prezzo del 30-40% rispetto ad altri fornitori, ma solo per compiti che funzionano completamente nel cloud Amazon. I chip sono specializzati per compiti specifici e non hanno la flessibilità universale che consente all'hardware Nvidia di gestire l'addestramento, il fine-tuning e l'output in qualsiasi framework.
Per un'azienda che spende 100 miliardi di dollari per un'infrastruttura che deve guadagnare entro due anni, scommettere su hardware proprietario di un unico fornitore di cloud è un rischio che la maggior parte non prenderà.
La vera barriera: l'ecosistema
Il vantaggio di Nvidia non risiede solo nel silicio. Si tratta di decenni di sviluppo di software, strumenti e formazione di ingegneri.
La piattaforma di programmazione CUDA, che Nvidia sviluppa dal 2006, supporta praticamente tutti i principali framework AI, inclusi PyTorch, TensorFlow e JAX. Passare a un chip concorrente spesso significa riscrivere il codice, riqualificare il personale e accettare il fatto che alcune funzionalità semplicemente non funzioneranno.
Le offerte di lavoro che menzionano 'CUDA' superano ancora di gran lunga quelle che menzionano alternative. Quando il corso di apprendimento automatico di Stanford ha aggiunto il framework JAX di Google come opzione predefinita nel 2025, è stato notevole proprio perché CUDA rimane lo standard da oltre dieci anni.
Nvidia ha anche costruito relazioni in tutta la catena di approvvigionamento. L'azienda collabora con oltre 200 partner tecnologici in oltre 150 fabbriche in tutto il mondo. Le aziende energetiche, gli specialisti del raffreddamento, i progettisti di data center e anche grandi società di investimento ora fanno parte della rete di Nvidia.
Questo ecosistema significa che l'amministratore delegato che acquista l'infrastruttura Nvidia non ottiene solo chip. Ottiene una strategia complessiva con supporto globale.
Cosa può cambiare
L'economia cambia in settori specifici. Per compiti di output ad alta intensità, dove esegui ripetutamente un modello in grande scala, il TPU di Google e i chip Trainium di Amazon possono offrire un miglior rapporto costo per token rispetto alle GPU generali di Nvidia.
Alcune aziende stanno silenziosamente effettuando la transizione. Anthropic ha preso impegni per un milione di TPU di Google nell'ottobre 2025. Midjourney, secondo quanto riferito, ha spostato gran parte del suo carico di generazione di immagini dall'hardware Nvidia ai TPU di Google Cloud, riducendo significativamente i costi mensili.
Ma l'addestramento di nuovi modelli avanzati? Qui è ancora necessario Nvidia. Quando xAI ha bisogno di costruire il sistema di apprendimento AI più potente al mondo, non hanno cercato alternative. Colossus 2 utilizza chip Nvidia GB200.
Il quadro competitivo è reale: il TPU Ironwood di Google ha finalmente eguagliato Nvidia nelle caratteristiche di base. La serie MI350 di AMD offre un'alternativa per le aziende che desiderano avere un secondo fornitore. Ma la conformità alle specifiche nei test non è la stessa cosa della conformità all'intero set di software, supporto e catena di approvvigionamento che Nvidia ha costruito per decenni.
Cosa significa questo per tutti gli altri
Per gli investitori, il quadro è chiaro: il dominio di Nvidia non è fragile, ma nemmeno garantito per sempre. L'azienda deve continuare a muoversi più velocemente dei concorrenti, che finalmente stanno creando alternative degne.
Per le aziende che creano sistemi AI, il calcolo dipende dalla situazione. Se stai addestrando modelli avanzati o hai bisogno di flessibilità nel lavorare con diversi cloud e framework, Nvidia rimane lo standard. Se stai eseguendo enormi compiti di output all'interno di un singolo cloud, l'economia dei chip specializzati merita una seria valutazione.
Per tutti gli altri, questa corsa all'infrastruttura ti influenza indipendentemente dal fatto che tu usi AI direttamente o meno. L'elettricità che alimenta questi data center fa aumentare le tariffe. Le catene di approvvigionamento che servono queste fabbriche cambiano la produzione globale.
Nvidia non vende solo hardware. Costruisce le fondamenta per ciò che Huang chiama 'l'era AI'. Se queste fondamenta rimarranno esclusivamente di proprietà di Nvidia o diventeranno più competitive — molto dipenderà da come si sviluppa il prossimo decennio.
Opinione AI
Dal punto di vista dell'analisi dei dati, l'attuale dominio di Nvidia ricorda la situazione di Intel negli anni '90, quando l'azienda controllava infrastrutture di calcolo critiche. La storia mostra che tale concentrazione attira inevitabilmente l'attenzione dei regolatori — soprattutto nel contesto della sicurezza nazionale degli Stati Uniti e della Cina.
L'analisi macroeconomica rivela un rischio nascosto di sostenibilità energetica. I data center da gigawatt, come Colossus 2, consumano elettricità pari a intere città, il che potrebbe affrontare delle limitazioni delle reti elettriche già nel 2026-2027. L'informatica quantistica e i chip neuromorfici rimangono 'cigni neri', in grado di cambiare radicalmente l'architettura dell'informatica AI. La situazione dimostra anche un paradosso: più aziende costruiscono alternative a Nvidia, maggiore diventa il rischio sistemico per l'intera industria in caso di guasti nelle catene di approvvigionamento dei semiconduttori taiwanesi.
