ستتفوق الشريحة الجديدة، التي أطلق عليها اسم H200، على الشريحة الرائدة الحالية التي تنتجها شركة Nvidia، وهي H100. وتكمن الترقية الرئيسية للرقاقة الجديدة في ذاكرة النطاق الترددي الأعلى، وهي واحدة من الأجزاء الأكثر تكلفة في الشريحة وتحدد السرعة التي تتم بها معالجة البيانات.
شريحة H200 من Nvidia ستتعامل مع أنظمة الذكاء الاصطناعي الأكبر حجمًا
تحتكر شركة Nvidia حاليًا سوق شرائح الذكاء الاصطناعي وتوفر الشرائح لخدمة ChatGPT التابعة لشركة OpenAI والعديد من خدمات الذكاء الاصطناعي التي تولد استجابات تشبه استجابات الإنسان. وبحسب وكالة رويترز، فإن إضافة ذاكرة ذات نطاق ترددي أعلى واتصالات أسرع لعناصر معالجة الشريحة يعني أن الخدمات مثل ChatGPT يمكن أن تستجيب بشكل أسرع.
يحتوي جهاز H200 على 141 جيجابايت (GB) من الذاكرة ذات النطاق الترددي العالي، بزيادة عن 80 جيجابايت في شريحة H100 السابقة. ولم تكشف شركة إنفيديا عن مورد الذاكرة للشريحة الجديدة، لكن شركة ميكرون تكنولوجي قالت في سبتمبر/أيلول إنها تعمل على أن تصبح مورداً لشركة إنفيديا.
وكشفت Nvidia أيضًا أن Amazon Web Services وGoogle Cloud وMicrosoft Azure وOracle Cloud Infrastructure ستكون أول مزودي خدمات السحابة الذين يستغلون شريحة H200، بالإضافة إلى مزودي خدمات السحابة المحترفين للذكاء الاصطناعي مثل CoreWeave وLambda وVultr.
مايكروسوفت تطلق شريحة الذكاء الاصطناعي
[إعلان 2]
رابط المصدر
تعليق (0)