Trích dẫn dữ liệu của Boston Consulting Group, Barron’s cho biết các trung tâm dữ liệu sẽ tiêu thụ 7,5% tổng lượng điện hiện có ở Mỹ vào năm 2030. Các trung tâm dữ liệu được xây dựng cho hệ thống AI có thể tiêu thụ hàng trăm megawatt điện trên mỗi cơ sở, do đó hệ thống cung cấp điện sẽ không còn theo kịp tốc độ tăng trưởng nhanh chóng về số lượng trung tâm dữ liệu.
Cũng theo phân tích, từ năm 2022 đến năm 2030, mức tiêu thụ năng lượng của trung tâm dữ liệu ở Mỹ tăng từ 126 lên 390 terawatt/giờ, lượng điện này sẽ đủ cung cấp cho 40 triệu hộ gia đình Mỹ.
Ước tính của 650 Group cho thấy khối lượng hệ thống máy chủ cung cấp cho nhu cầu AI từ năm ngoái đến năm 2028 sẽ tăng gấp 6 lần, lên 6 triệu chiếc. Theo dự báo của Gartner, mức tiêu thụ năng lượng trung bình của một máy chủ gia tốc sẽ tăng từ 650W lên 1.000W.
Mức tiêu thụ năng lượng sẽ tăng không chỉ do số lượng máy chủ tăng mà còn do điều kiện. Nỗ lực tối ưu hóa chi phí năng lượng thông qua việc đưa AI vào lĩnh vực kiểm soát tiêu thụ năng lượng sẽ phần nào hạn chế xu hướng này, nhưng sẽ không giải quyết được hoàn toàn vấn đề. Việc chuyển đổi sang làm mát bằng chất lỏng của hệ thống máy chủ sẽ là điều không thể tránh khỏi trong hầu hết các trường hợp. Theo Super Micro, chi phí vận hành trung tâm dữ liệu có thể giảm hơn 40% bằng cách loại bỏ hệ thống làm mát không khí truyền thống để chuyển sang làm mát bằng chất lỏng.
Vấn đề càng trở nên trầm trọng hơn do sự phát triển không đồng đều của mạng lưới cung cấp năng lượng trong khu vực. Ngoài ra, không phải nơi nào cũng có thể truyền tải điện năng được tạo ra một cách hiệu quả đến địa điểm của những hệ thống tiêu hao năng lượng lớn. Các chuyên gia cho rằng Mỹ tạo ra đủ điện để hỗ trợ phát triển hệ thống AI, nhưng có vấn đề với mạng lưới phân phối.