يواصل الذكاء الاصطناعي الجديد من DeepSeek إحداث ضجة في عالم التكنولوجيا بأدائه المتميز. الصورة: صحيفة ساوث تشاينا مورنينج بوست . |
أطلقت شركة DeepSeek رسميًا DeepSeek V3-0324، وهو الإصدار الأحدث في سلسلة V3 Large Language Model (LLM).
كما هو الحال مع الإصدارات السابقة، تم إصدار هذا النموذج كمصدر مفتوح مجانًا من خلال منصة Hugging Face، مع تحسينات كبيرة مقارنة بالإصدارات السابقة، وخاصة في مجالات التفكير والبرمجة.
على وجه التحديد، وفقًا لـ OpenRouter، تم بناء DeepSeek V3-0324 باستخدام Mixture of Experts (MoE)، وهي طريقة التعلم الآلي التي تحظى بشعبية كبيرة في بعض نماذج الذكاء الاصطناعي الصينية وتحتوي على 685 مليار معلمة.
وفقًا للمراجعات الأولية، يُظهر النموذج أداءً مثيرًا للإعجاب في مجموعة متنوعة من المهام. في هذه الأثناء، يظهر منشور على موقع Reddit أن DeepSeek V3-0324 قد لحق بنموذج Sonnet 3.7 من Google في اختبار توليد كود البرمجة.
تشير المصادر أيضًا إلى أن DeepSeek V3-0324 قادر على إنشاء مقتطفات برمجية طويلة دون أي أخطاء. قامت شركة AI Analytics Vidhya باختبار هذا النموذج وسجلت قدرته على إنشاء 700 سطر من التعليمات البرمجية بسلاسة.
على X، حقق تطبيق DeepSeek V3-0324 أيضًا نجاحًا كبيرًا. ولإثبات ذلك، نشر ديبانشو شارما مقطع فيديو يوضح كيف يمكن لهذا النموذج من الذكاء الاصطناعي إنشاء موقع ويب كامل بسلاسة مع أكثر من 800 سطر من التعليمات البرمجية.
أصبحت DeepSeek شركة الذكاء الاصطناعي الصينية الأكثر شهرة في ديسمبر 2024 عندما أطلقت DeepSeek-V3. يحقق هذا النموذج أداءً مماثلاً لأداء GPT-4o ولكنه يستخدم جزءًا صغيرًا فقط من الموارد الحسابية.
وبعد فترة ليست طويلة، واصلت DeepSeek إصدار نموذج التفكير DeepSeek-R1. وفقًا لـ TechCrunch ، يتفوق R1 على o1 من OpenAI في معايير مثل AIME وMATH-500 وSWE-bench Verified.
وفي الوقت نفسه، فإن المبلغ الذي بلغ 5.6 مليون دولار لتدريب المرحلة النهائية من نموذج DeepSeek صادم أيضاً، مقارنة بمئات الملايين من الدولارات التي يتعين على الشركات الأمريكية الرائدة إنفاقها لتدريب نماذجها.
المصدر: https://znews.vn/at-chu-bai-moi-cua-deepseek-lo-dien-post1540831.html
تعليق (0)