كانت شركة Nvidia معروفة في السابق بأنها الشركة المصنعة للرقائق المستخدمة في ألعاب الفيديو، ولكنها حولت تركيزها إلى سوق مراكز البيانات في السنوات الأخيرة.
حققت شركة الرقائق الأمريكية "ثروة" بسرعة خلال فترة الوباء عندما زاد الطلب على الألعاب وتطبيقات السحابة، فضلاً عن انتشار "حمى تعدين العملات المعدنية" في جميع أنحاء العالم . خلال السنة المالية المنتهية في 29 يناير، شكلت أعمال شرائح مراكز البيانات أكثر من 50% من إيرادات الشركة.
وفي الوقت نفسه، أخذ برنامج المحادثة الشهير ChatGPT الذكاء الاصطناعي التوليدي إلى مستوى جديد هذا العام. تستخدم التكنولوجيا كميات كبيرة من البيانات الموجودة لإنشاء محتوى جديد حول مجموعة واسعة من المواضيع، من الشعر إلى برمجة الكمبيوتر.
تعتقد مايكروسوفت وألفابت، وهما شركتان عملاقتان في مجال التكنولوجيا وهما أيضًا من اللاعبين الكبار في مجال الذكاء الاصطناعي، أن التكنولوجيا التوليدية يمكن أن تغير طريقة عمل البشر. وقد أطلق كلا منهما سباقًا لدمج الذكاء الاصطناعي في محركات البحث بالإضافة إلى برامج المكاتب بهدف الهيمنة على هذه الصناعة.
وتشير تقديرات جولدمان ساكس إلى أن الاستثمار الأمريكي في الذكاء الاصطناعي قد يصل إلى نحو 1% من الناتج الاقتصادي للبلاد بحلول عام 2030.
تعتمد أجهزة الكمبيوتر العملاقة المستخدمة في معالجة البيانات وتشغيل الذكاء الاصطناعي التوليدي على وحدات المعالجة البصرية (GPUs). تم تصميم وحدات معالجة الرسومات للتعامل مع حسابات محددة تتعلق بالحوسبة الذكاء الاصطناعي، بكفاءة أكبر بكثير من وحدات المعالجة المركزية من شركات تصنيع الرقائق الأخرى مثل Intel. على سبيل المثال، يعتمد ChatGPT من OpenAI على آلاف وحدات معالجة الرسوميات من Nvidia.
وفي الوقت نفسه، تسيطر شركة Nvidia على نحو 80% من حصة سوق وحدات معالجة الرسوميات. ومن بين المنافسين الرئيسيين لشركة Nvidia شركة Advanced Micro Devices وشرائح الذكاء الاصطناعي الداخلية من شركات التكنولوجيا مثل Amazon وGoogle وMeta Platforms.
سر التسامي
وتحقق الشركة قفزة للأمام بفضل H100، وهي شريحة تعتمد على بنية Nvidia الجديدة المسماة "Hopper" - والتي سميت على اسم رائدة البرمجة الأمريكية جريس هوبر. لقد أدى انفجار الذكاء الاصطناعي إلى جعل H100 السلعة الأكثر طلبًا في وادي السيليكون.
تحتوي الرقائق الضخمة المستخدمة في مراكز البيانات على 80 مليار ترانزستور، أي خمسة أضعاف رقائق السيليكون التي تعمل على تشغيل أحدث هواتف آيفون. وعلى الرغم من أن سعره أعلى بمرتين من سابقه، A100 (الذي تم إطلاقه في عام 2020)، يقول مستخدمو H100 إن الشريحة تقدم أداءً أعلى بثلاث مرات.
لقد أثبتت H100 شعبيتها بشكل خاص لدى شركات "Big Tech" مثل Microsoft و Amazon، والتي تقوم ببناء مراكز بيانات كاملة تركز على أحمال عمل الذكاء الاصطناعي، وشركات الذكاء الاصطناعي من الجيل الجديد مثل OpenAI و Anthropic و Stability AI و Inflection AI لأنها تعد بأداء أعلى، مما يمكن أن يسرع إطلاق المنتجات أو يقلل من تكاليف التدريب بمرور الوقت.
قال برانين ماكبي، كبير مسؤولي الاستراتيجية ومؤسس CoreWeave، وهي شركة ناشئة في مجال الحوسبة السحابية تعتمد على الذكاء الاصطناعي وكانت من أوائل الشركات التي تلقت شحنات H100 في وقت سابق من هذا العام: "يعتبر هذا أحد أندر الموارد الهندسية المتاحة".
ولم يكن بعض العملاء الآخرين محظوظين مثل CoreWeave، إذ اضطروا إلى الانتظار لمدة تصل إلى 6 أشهر لتلقي المنتج لتدريب نماذج البيانات الضخمة الخاصة بهم. تشعر العديد من الشركات الناشئة في مجال الذكاء الاصطناعي بالقلق من عدم قدرة شركة Nvidia على تلبية الطلب في السوق.
كما طلب إيلون ماسك أيضًا آلاف الرقائق من شركة Nvidia لشركته الناشئة في مجال الذكاء الاصطناعي، قائلاً "أصبح من الصعب الحصول على وحدات معالجة الرسومات في الوقت الحالي أكثر من الأدوية".
ارتفعت تكاليف الحوسبة بشكل كبير. ووصل الحد الأدنى للإنفاق على أجهزة الخوادم المستخدمة في بناء الذكاء الاصطناعي الإبداعي إلى 250 مليون دولار، حسبما أشار الرئيس التنفيذي لشركة تيسلا.
إذا كان H100 في الوقت المناسب، فإن الاختراق الذي حققته شركة Nvidia في مجال الذكاء الاصطناعي يعود إلى عقدين من الزمن من خلال ابتكار البرمجيات وليس الأجهزة. في عام 2006، أطلقت الشركة برنامج CUDA، الذي يسمح باستخدام وحدة معالجة الرسوميات كأداة لتسريع المهام الأخرى غير الرسومات.
قال ناثان بينيتش، الشريك في إير ستريت كابيتال والمستثمر في شركات الذكاء الاصطناعي الناشئة: "سبقت إنفيديا الجميع في استشراف المستقبل، وتوجهت نحو وحدات معالجة الرسومات القابلة للبرمجة. لقد استغلت الفرصة، وراهنت بقوة، وتفوقت باستمرار على منافسيها".
(بحسب رويترز، FT)
[إعلان 2]
مصدر
تعليق (0)