توصل فريق بحثي في مجال الذكاء الاصطناعي بجامعة البوليتكنيك في فالنسيا بإسبانيا، إلى أنه كلما أصبحت نماذج اللغة الكبيرة أكبر حجماً وأكثر تعقيداً، فإنها تميل إلى أن تكون أقل ميلاً إلى الاعتراف للمستخدمين بأنها لا تعرف الإجابة. [إعلان_1]
كلما أصبح الذكاء الاصطناعي أكثر ذكاءً، كلما قل احتمال اعترافه للمستخدمين بأنه لا يعرف الإجابة. (صورة توضيحية للذكاء الاصطناعي) |
وفي بحث نُشر في مجلة Nature ، اختبر الفريق أحدث إصدارات ثلاثة من أكثر برامج الدردشة الآلية شهرة من حيث الاستجابة والدقة وقدرة المستخدمين على اكتشاف الإجابات غير الصحيحة.
لاختبار دقة اختبارات LLM الثلاثة الأكثر شعبية، BLOOM وLLaMA وGPT، طرح الفريق آلاف الأسئلة وقارن الردود التي تلقاها مع الردود من الإصدارات السابقة لنفس الأسئلة. وتختلف أيضًا في موضوعاتها، بما في ذلك الرياضيات والعلوم وألغاز الكلمات والجغرافيا، فضلاً عن القدرة على إنشاء نص أو تنفيذ إجراءات مثل فرز القوائم.
وكشفت نتائج الدراسة عن بعض الاتجاهات البارزة. تتحسن الدقة الإجمالية لروبوتات الدردشة مع كل إصدار جديد، ولكنها لا تزال تنخفض عند مواجهة أسئلة أكثر صعوبة. من المثير للدهشة أنه مع تزايد حجم وتطور حاملي شهادات الماجستير في القانون، أصبحوا أقل انفتاحًا بشأن قدرتهم على الإجابة بشكل صحيح.
في الإصدارات السابقة، كانت معظم برامج الماجستير في القانون واضحة مع المستخدمين عندما لم يتمكنوا من العثور على إجابة أو احتاجوا إلى مزيد من المعلومات. على النقيض من ذلك، تميل الإصدارات الأحدث إلى التخمين أكثر، مما يؤدي إلى ظهور المزيد من الإجابات بشكل عام، بما في ذلك الإجابات الصحيحة والخاطئة. والأمر الأكثر إثارة للقلق هو أن الدراسة وجدت أن جميع برامج الماجستير في القانون ما زالت تقدم في بعض الأحيان إجابات غير صحيحة حتى على الأسئلة السهلة، مما يشير إلى أن موثوقيتها لا تزال تشكل مشكلة تحتاج إلى تحسين.
تسلط هذه النتائج الضوء على مفارقة في تطور الذكاء الاصطناعي: ففي حين أصبحت النماذج أكثر قوة، فإنها قد تصبح أيضًا أقل شفافية بشأن حدودها.
ويطرح هذا تحديات جديدة فيما يتعلق باستخدام أنظمة الذكاء الاصطناعي والثقة بها، مما يتطلب من المستخدمين أن يكونوا أكثر حذراً ومن المطورين التركيز على تحسين ليس فقط الدقة ولكن أيضًا "الوعي الذاتي" للنماذج.
[إعلان رقم 2]
المصدر: https://baoquocte.vn/cang-thong-minh-tri-tue-nhan-tao-cang-co-xu-huong-giau-dot-287987.html
تعليق (0)