ชิปใหม่ที่เรียกว่า H200 จะแซงหน้าชิปตัวท็อปปัจจุบันของ Nvidia ซึ่งก็คือ H100 การอัปเกรดหลักของชิปใหม่อยู่ที่หน่วยความจำแบนด์วิดท์ที่สูงขึ้น ซึ่งเป็นหนึ่งในชิ้นส่วนที่มีราคาแพงที่สุดของชิป และกำหนดความเร็วในการประมวลผลข้อมูล
ชิป H200 ของ Nvidia จะรองรับระบบปัญญาประดิษฐ์ขนาดใหญ่กว่า
ปัจจุบัน Nvidia เป็นผู้ผูกขาดตลาดชิป AI และจัดหาชิปให้กับบริการ ChatGPT ของ OpenAI และบริการ AI อื่นๆ อีกมากมายที่สร้างการตอบสนองเหมือนมนุษย์ การเพิ่มหน่วยความจำแบนด์วิดท์ที่สูงขึ้นและการเชื่อมต่อที่รวดเร็วยิ่งขึ้นให้กับองค์ประกอบการประมวลผลของชิปหมายความว่าบริการต่างๆ เช่น ChatGPT สามารถตอบสนองได้เร็วขึ้น ตามที่ Reuters รายงาน
H200 มีหน่วยความจำแบนด์วิดท์สูง 141 กิกะไบต์ (GB) เพิ่มขึ้นจาก 80 GB ในชิป H100 ก่อนหน้า Nvidia ไม่ได้เปิดเผยซัพพลายเออร์หน่วยความจำสำหรับชิปใหม่ แต่ Micron Technology กล่าวในเดือนกันยายนว่ากำลังดำเนินการเพื่อเป็นซัพพลายเออร์ให้กับ Nvidia
Nvidia เปิดเผยเพิ่มเติมว่า Amazon Web Services, Google Cloud, Microsoft Azure และ Oracle Cloud Infrastructure จะเป็นผู้ให้บริการคลาวด์กลุ่มแรกที่จะใช้ประโยชน์จากชิป H200 นอกเหนือจากผู้ให้บริการคลาวด์ AI ระดับมืออาชีพ เช่น CoreWeave, Lambda และ Vultr
Microsoft เปิดตัวชิป AI
ลิงค์ที่มา
การแสดงความคิดเห็น (0)