バロンズはボストン・コンサルティング・グループのデータを引用し、2030年までにデータセンターが米国の全電力の7.5%を消費するだろうと予測した。AIシステム向けに建設されるデータセンターは、施設ごとに数百メガワットの電力を消費する可能性があるため、電力供給システムはデータセンター数の急速な増加に対応できなくなるだろう。
AIサーバーに供給するための膨大なエネルギー需要
分析によると、2022年から2030年にかけて、米国のデータセンターのエネルギー消費量は126テラワット時から390テラワット時に増加し、これは米国の4000万世帯に供給するのに十分な量となる。
650グループは、AIニーズに応えるサーバーシステムの量が昨年から2028年までに6倍の600万台に増加すると予測している。ガートナーの予測によると、アクセラレータ サーバーの平均消費電力は 650W から 1,000W に増加するとのことです。
エネルギー消費量は、サーバーの台数の増加だけでなく、状況によっても増加します。 AI をエネルギー消費制御の分野に導入してエネルギーコストを最適化する取り組みは、この傾向をある程度制限しますが、問題を完全に解決することはできません。ほとんどの場合、サーバー システムの液体冷却への移行は避けられません。 Super Micro によれば、従来の空冷システムを廃止して液体冷却を導入することで、データセンターの運用コストを 40% 以上削減できるという。
この問題は、この地域のエネルギー供給ネットワークの発展が不均一であることによってさらに悪化している。さらに、発電した電気を大規模なエネルギー消費システムの場所に効率よく送電することがどこでも可能というわけではありません。専門家によると、米国はAIシステム開発を支えるのに十分な電力を生産しているが、配電網に問題があるという。
[広告2]
ソースリンク
コメント (0)