Les nouveaux accords sur les puces d'OpenAI soulèvent une question difficile : d'où viendra toute l'énergie ?
Le fabricant de ChatGPT a signé un accord de collaboration multimillionnaire avec AMD pour mettre en œuvre 6 gigawatts de puces d'intelligence artificielle de l'entreprise de semi-conducteurs.
La semaine dernière, OpenAI et le concepteur de puces Nvidia ont annoncé un accord pour 10 gigawatts de puissance de calcul.
OpenAI a déclaré qu'il avait désespérément besoin d'accéder à plus de puissance de calcul pour réaliser sa stratégie de croissance ambitieuse, mais ses récents accords sur les puces ont généré une autre nécessité cruciale : plus d'énergie.
Aux États-Unis, la course à l'IA a tendu le réseau électrique jusqu'à presque le point de rupture.
Les entreprises de services publics rapportent qu'il faudra environ 60 gigawatts de nouvelle énergie, l'équivalent de la consommation de six grandes villes, d'ici la fin de la décennie.
Les entreprises électriques peuvent prendre des années pour planifier et réaliser les audiences réglementaires nécessaires pour mettre en place de nouvelles infrastructures.
Avec le rythme rapide des annonces de nouvelles puces, les experts affirment qu'il est de plus en plus nécessaire que les centres de données se passent des entreprises de services publics et commencent à fournir leur propre énergie.
"Le secteur en général sait depuis des années que nous atteignons la limite de la capacité du réseau", souligne Sean Farney, vice-président de la stratégie des centres de données pour l'Amérique de Jones Lang Lasalle.
"Pour gagner dans ce jeu, ils doivent être innovants et lancer ces solutions d'autogénération".
OpenAI fournit déjà de l'énergie à son centre de données d'Abilene (Texas), qui fait partie du projet Stargate, via une centrale au gaz naturel située sur les lieux.
Elon Musk fournit de l'énergie à un centre de données de xAI à Memphis avec des turbines mobiles au gaz naturel et a acheté les installations d'une ancienne centrale à gaz dans le Mississippi.