أصبحت شريحة الذكاء الاصطناعي المخصصة LPU التي طورتها شركة Groq بمثابة ضجة كبيرة على وسائل التواصل الاجتماعي بين عشية وضحاها، حيث انتشرت اختباراتها المعيارية العامة على منصة التواصل الاجتماعي X.
تزعم شركة Groq أنها تقدم "أسرع نماذج معالجة اللغة الطبيعية في العالم"، وتشير الاختبارات المستقلة المكثفة إلى أن هذا الادعاء قد يكون دقيقًا.
تصنع شركة Groq شرائح ذكاء اصطناعي متخصصة تسمى LPUs (وحدات معالجة اللغة)، والتي يقال إنها أسرع من وحدات معالجة الرسوميات الخاصة بشركة Nvidia. غالبًا ما تُعتبر وحدات معالجة الرسومات من Nvidia بمثابة المعيار الصناعي لتشغيل نماذج الذكاء الاصطناعي، ولكن النتائج الأولية تشير إلى أن وحدات معالجة الرسومات المتوازية سوف تتفوق عليها، على الأقل في المهام التي تتطلب سرعة هائلة.
في الأساس، تعد شريحة LPU الخاصة بشركة Groq بمثابة "محرك حوسبة"، مما يسمح لبرامج المحادثة مثل ChatGPT وGemini بالعمل بسرعات استقبال واستجابة سريعة للغاية. وفي الاختبارات التي أجريت، تفوقت برامج المحادثة الآلية التي تستخدم شريحة LPU على ثمانية برامج محادثة آلية تستخدم شرائح ذكاء اصطناعي أخرى في العديد من مقاييس الأداء الرئيسية، بما في ذلك زمن الوصول مقابل الإنتاجية وإجمالي وقت الاستجابة. يظهر الأداء المتفوق لوحدة LPU بشكل أكثر وضوحًا عند اختبارها مع طراز Llama 2-70b من Meta.
وفقًا للاختبارات المستقلة التي أجرتها Artificial Analysis، يمكن لروبوتات الدردشة التي تستخدم شرائح LPU تحقيق معدل إنتاج يبلغ 247 رمزًا في الثانية. للمقارنة، يصل ChatGPT من OpenAI حاليًا إلى إنتاجية قصوى تبلغ 18 رمزًا/ثانية فقط. وهذا يعني أن ChatGPT يمكن أن يكون أسرع بـ 13 مرة باستخدام الرقائق التي طورتها Groq، على الرغم من أن هذا يعتمد على العديد من العوامل الأخرى ذات الصلة.
وفقًا للتحليل الاصطناعي، فإن هذا المستوى من الأداء قد يفتح إمكانيات جديدة لنماذج اللغة الكبيرة (LLMs) عبر مجموعة واسعة من المجالات. يمكن لروبوتات الدردشة التي تستخدم شريحة LPU الخاصة بشركة Groq إنشاء مئات الكلمات في جزء من الثانية، مما يسمح للمستخدمين بأداء المهام في الوقت الفعلي. في أحد الاختبارات، قام مؤسس شركة Groq والرئيس التنفيذي جوناثان روس بإرشاد مذيع قناة CNN عبر محادثة لفظية مباشرة مع روبوت محادثة يعمل بالذكاء الاصطناعي على الجانب الآخر من العالم.
يمكن أن تكون برامج المحادثة الذكية مثل ChatGPT وGemini وLlama مفيدة بشكل كبير إذا استجابت بشكل أسرع. أحد القيود المهمة حاليًا هو أن برامج المحادثة هذه لا تستطيع مواكبة الكلام البشري في الوقت الفعلي. إن التأخير الكبير يجعل المحادثات ميكانيكية وغير مرضية في العديد من المجالات.
وعلى الرغم من الضجة المحيطة بشريحة LPU من Groq، فإن القضية المباشرة هي تقييم مدى إمكانية تطبيقها العملي مقارنة بالمنتجات المماثلة. على عكس وحدة معالجة الرسوميات (GPU) من Nvidia أو وحدة معالجة الرسومات (TPU) من Google، فإن وحدة معالجة الرسوميات (LPU) من Groq عبارة عن شريحة ذكاء اصطناعي متخصصة، مصممة لتحسينها لأداء مهام معينة، بدلاً من كونها شريحة ذكاء اصطناعي "لأغراض عامة".
علاوة على ذلك، يعد هذا أيضًا الوقت الذي يتطلع فيه مطورو الذكاء الاصطناعي الرئيسيون إلى تطوير شرائح داخلية لتجنب الاعتماد على منتجات Nvidia. وتشير التقارير إلى أن شركة OpenAI تسعى للحصول على تريليونات الدولارات من التمويل لتطوير رقائقها الخاصة. حتى أن الرئيس التنفيذي لشركة OpenAI، سام ألتمان، يفكر في بناء بنية شريحة ذكاء اصطناعي جديدة تمامًا من الصفر.
(وفقا لـ Cryptoslate)
[إعلان رقم 2]
مصدر
تعليق (0)