Barron's อ้างอิงจากข้อมูลของ Boston Consulting Group ระบุว่าภายในปี 2030 ศูนย์ข้อมูลจะกินไฟถึง 7.5% ของไฟฟ้าทั้งหมดที่มีในสหรัฐอเมริกา ศูนย์ข้อมูลที่สร้างขึ้นสำหรับระบบ AI อาจกินไฟหลายร้อยเมกะวัตต์ต่อสถานที่ ดังนั้นระบบจ่ายไฟจึงไม่สามารถรองรับการเติบโตอย่างรวดเร็วของจำนวนศูนย์ข้อมูลได้อีกต่อไป
ความต้องการพลังงานมหาศาลในการให้บริการเซิร์ฟเวอร์ AI
ตามการวิเคราะห์ ตั้งแต่ปี 2022 ถึง 2030 การใช้พลังงานของศูนย์ข้อมูลในสหรัฐอเมริกาจะเพิ่มขึ้นจาก 126 เป็น 390 เทราวัตต์ชั่วโมง ซึ่งเพียงพอต่อการจ่ายพลังงานให้กับครัวเรือนในสหรัฐอเมริกา 40 ล้านครัวเรือน
650 Group คาดการณ์ว่าปริมาณระบบเซิร์ฟเวอร์ที่ตอบสนองความต้องการ AI ตั้งแต่ปีก่อนจนถึงปี 2028 จะเพิ่มขึ้น 6 เท่า เป็น 6 ล้านหน่วย ตามการคาดการณ์ของ Gartner การใช้พลังงานเฉลี่ยของเซิร์ฟเวอร์เร่งความเร็วจะเพิ่มขึ้นจาก 650W เป็น 1,000W
การใช้พลังงานจะเพิ่มขึ้นไม่เพียงแต่เนื่องจากจำนวนเซิร์ฟเวอร์ที่เพิ่มขึ้นเท่านั้น แต่ยังรวมถึงเงื่อนไขต่างๆ ด้วย ความพยายามที่จะปรับต้นทุนพลังงานให้เหมาะสมโดยนำ AI มาใช้ในด้านการควบคุมการใช้พลังงานจะช่วยจำกัดแนวโน้มนี้ในระดับหนึ่ง แต่จะไม่สามารถแก้ไขปัญหาได้ทั้งหมด การเปลี่ยนไปใช้ระบบระบายความร้อนด้วยของเหลวของระบบเซิร์ฟเวอร์จะเป็นสิ่งที่หลีกเลี่ยงไม่ได้ในกรณีส่วนใหญ่ ตามข้อมูลของ Super Micro ต้นทุนการดำเนินงานศูนย์ข้อมูลสามารถลดลงได้มากกว่า 40% โดยการกำจัดระบบระบายความร้อนด้วยอากาศแบบดั้งเดิมและใช้การระบายความร้อนด้วยของเหลวแทน
ปัญหาได้รับการทำให้เลวร้ายลงไปอีกจากการพัฒนาโครงข่ายการจ่ายพลังงานที่ไม่เท่าเทียมกันในภูมิภาค นอกจากนี้ ยังไม่สามารถส่งพลังงานไฟฟ้าที่ผลิตไปยังสถานที่ที่มีระบบที่ใช้พลังงานขนาดใหญ่ได้อย่างมีประสิทธิภาพทุกที่ ผู้เชี่ยวชาญกล่าวว่าสหรัฐอเมริกาผลิตไฟฟ้าได้เพียงพอที่จะสนับสนุนการพัฒนาระบบ AI แต่มีปัญหากับโครงข่ายการจ่ายไฟฟ้า
ลิงค์ที่มา
การแสดงความคิดเห็น (0)