Die neuen Vereinbarungen über Chips von OpenAI stellen eine schwierige Frage: Woher wird die gesamte Energie kommen?

Der Hersteller von ChatGPT hat einen milliardenschweren Kooperationsvertrag mit AMD unterzeichnet, um 6 Gigawatt Chips der Künstlichen Intelligenz des Unternehmens für Halbleiter zu implementieren.

In der letzten Woche haben OpenAI und der Chipdesigner Nvidia eine Vereinbarung über 10 Gigawatt Rechenleistung angekündigt.

OpenAI hat erklärt, dass es dringend auf mehr Rechenleistung angewiesen ist, um seine ehrgeizige Wachstumsstrategie umzusetzen, aber die jüngsten Vereinbarungen über Chips haben einen weiteren entscheidenden Bedarf erzeugt: mehr Energie.

In den Vereinigten Staaten hat das Rennen um die KI das Stromnetz bis fast an den Punkt des Zusammenbruchs belastet.

Die Versorgungsunternehmen berichten, dass bis Ende des Jahrzehnts etwa 60 Gigawatt neuer Energie benötigt werden, was dem Verbrauch von sechs großen Städten entspricht.

Die Elektrizitätsunternehmen können Jahre damit verbringen, die erforderlichen regulatorischen Anhörungen zu planen und durchzuführen, um neue Infrastrukturen in Betrieb zu nehmen.

Angesichts des schnellen Tempos der Ankündigungen neuer Chips sagen Experten, dass es immer notwendiger wird, dass Rechenzentren auf die Versorgungsunternehmen verzichten und beginnen, ihre eigene Energie zu erzeugen.

"Der Sektor weiß seit Jahren, dass wir an die Grenzen der Kapazität des Netzes stoßen", merkt Sean Farney, Vizepräsident für die Strategie von Rechenzentren für Amerika von Jones Lang Lasalle, an.

"Um in diesem Spiel zu gewinnen, müssen sie innovativ sein und diese Lösungen zur Selbstversorgung auf den Markt bringen".

OpenAI versorgt bereits sein Rechenzentrum in Abilene (Texas), das Teil des Stargate-Projekts ist, über ein Erdgaswerk auf dem Gelände mit Energie.

Elon Musk versorgt ein Rechenzentrum von xAI in Memphis mit mobilen Erdgas-Turbinen und hat die Anlagen einer alten Gasfabrik in Mississippi gekauft.