Unter Berufung auf Daten der Boston Consulting Group sagte Barron’s, dass Rechenzentren bis 2030 7,5 % des gesamten verfügbaren Stroms in den USA verbrauchen werden. Rechenzentren, die für KI-Systeme gebaut werden, können Hunderte von Megawatt Strom pro Anlage verbrauchen, sodass das Stromversorgungssystem mit dem rasanten Wachstum der Zahl der Rechenzentren nicht mehr Schritt halten kann.
Enormer Energiebedarf für den Betrieb von KI-Servern
Der Analyse zufolge werde der Energieverbrauch der Rechenzentren in den USA von 2022 bis 2030 von 126 auf 390 Terawattstunden steigen, was ausreichen würde, um 40 Millionen US-Haushalte zu versorgen.
Die 650 Group schätzt, dass sich die Anzahl der Serversysteme, die den KI-Bedarf decken, vom letzten Jahr bis 2028 versechsfachen wird, auf sechs Millionen Einheiten. Laut Gartner-Prognose wird der durchschnittliche Stromverbrauch eines Beschleunigerservers von 650 W auf 1.000 W steigen.
Nicht nur durch die zunehmende Anzahl an Servern, sondern auch aufgrund anderer Rahmenbedingungen wird der Energieverbrauch steigen. Bemühungen zur Optimierung der Energiekosten durch den Einsatz künstlicher Intelligenz im Bereich der Kontrolle des Energieverbrauchs werden diesen Trend zwar etwas eindämmen, das Problem jedoch nicht vollständig lösen. Der Umstieg auf Flüssigkeitskühlung von Serversystemen wird in den meisten Fällen unumgänglich sein. Laut Super Micro können die Betriebskosten von Rechenzentren um mehr als 40 % gesenkt werden, wenn herkömmliche Luftkühlsysteme durch Flüssigkeitskühlung ersetzt werden.
Das Problem wird durch die ungleichmäßige Entwicklung des Energieversorgungsnetzes in der Region noch verschärft. Zudem ist es nicht überall möglich, den erzeugten Strom effizient an die Standorte großer Energieverbraucher zu transportieren. Experten zufolge erzeugen die USA zwar genug Strom, um die Entwicklung von KI-Systemen zu unterstützen, es gebe jedoch Probleme mit dem Verteilungsnetz.
[Anzeige_2]
Quellenlink
Kommentar (0)