وبحسب مصادر Tech.co ، بينما كان الجدل مستمرًا حول إقالة الرئيس التنفيذي سام ألتمان ثم عودته إلى OpenAI، كانت إحدى الشائعات تدور حول رسالة أرسلها باحثو الشركة إلى مجلس الإدارة، معربين عن مخاوفهم بشأن نموذج الذكاء الاصطناعي الفائق الذي يتم تطويره والذي قد يشكل تهديدًا محتملًا للبشرية.
(توضيح)
مشروع Q*
ويقال إن النموذج، المعروف داخليًا باسم Project Q* (ينطق Q-star)، يمثل تقدمًا كبيرًا في سعي OpenAI إلى الذكاء العام الاصطناعي (AGI) - وهو فرع مستقل للغاية من الذكاء الفائق القادر على التعلم التراكمي والتفوق على البشر في معظم المهام.
قد يمثل Q* قفزة كبيرة إلى الأمام في مجال الذكاء الاصطناعي من خلال تحسين قدرات التفكير لدى الذكاء الاصطناعي بشكل جذري وتقريب OpenAI من تحقيق تقدم كبير في تطوير الذكاء الاصطناعي العام، وفقًا لأشخاص مطلعين على الأمر.
على عكس نماذج الذكاء الاصطناعي الحالية، والتي تركز على القدرة على توليد الاستجابات بناءً على المعلومات التي تم تعلمها مسبقًا، فإن الذكاء الاصطناعي العام هو نظام مستقل يمكنه تطبيق "العقل" على القرارات، مما يمنحه قدرات حل المشكلات على المستوى البشري.
ورغم أن الذكاء الاصطناعي العام لم يتحقق بالكامل بعد، يعتقد العديد من الخبراء أن التكنولوجيا ستتمتع أيضًا بالقدرة على التعلم التراكمي، وهي سمة أخرى تمنح البشر القدرة على تحسين قدراتهم.
تزعم بعض المصادر أن مشروع Q* - OpenAI كان قادرًا على إثبات الخصائص المذكورة أعلاه عند حل المشكلات. ولم يقتصر الأمر على ذلك، بل تمكن Q*، بفضل القوة الحسابية الهائلة التي يتمتع بها النموذج، من التفوق على طلاب المدارس الابتدائية، وإظهار مهارات التفكير والقدرات المعرفية التي تتجاوز بشكل كبير قدرات تكنولوجيا الذكاء الاصطناعي الحالية.
من غير الواضح منذ متى تم تطوير Q* وما هي تطبيقاته المحتملة، لكن OpenAI أبلغت الموظفين وأعضاء مجلس الإدارة عن المشروع قبل اندلاع فضيحة الموظفين.
المخاوف الأخلاقية
في حين يشعر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بالثقة في أن تقنية الذكاء الاصطناعي العام ستقود الابتكار، إلا أن بعض الباحثين سارعوا إلى الإشارة إلى المخاطر المحتملة للمشروع.
وفي رسالة إلى المجلس، حذر الباحثون من المخاطر المحتملة لهذه الخوارزمية القوية على البشرية. ولم يتم الكشف عن المخاوف الأخلاقية الخاصة بالذكاء الاصطناعي الموضحة في الرسالة، لكن التحذيرات كانت كافية لتبرير قرار المجلس بطرد ألتمان.
وفي الوقت نفسه، كان السبب الأولي الذي تم تقديمه لإقالة ألتمان هو أن الرئيس التنفيذي "لم يتواصل بشكل جيد". وبعد فترة وجيزة، وجد وظيفة جديدة في مايكروسوفت. ودفعت هذه الخطوة 700 من أصل 770 موظفًا في شركة OpenAI إلى التهديد بالقيام بنفس الشيء إذا لم يتم إعادة الرئيس التنفيذي إلى منصبه.
ومع تعرض الشركة لخطر الانهيار، اضطر مجلس إدارة OpenAI إلى إعادة ألتمان إلى المنصب الأعلى - وهو ما أدى أيضًا إلى إصلاح كبير للفريق التنفيذي للشركة وتسليط الضوء على الانقسامات العميقة داخل قيادتها.
والآن بعد أن عاد ألتمان إلى منصبه، ومن المرجح أن يحصل مشروع Q* على الضوء الأخضر مرة أخرى، فإن ذلك يثير أسئلة جديدة.
ما مدى واقعية مشروع Q*؟
وفي حين أن الأيام المضطربة في OpenAI جلبت مفهوم الذكاء الاصطناعي العام إلى دائرة الضوء، فهذه ليست المرة الأولى التي يذكر فيها ألتمان هذه التكنولوجيا.
في سبتمبر/أيلول، وجد رجل الأعمال في وادي السيليكون نفسه في موقف محرج بعد مقارنة الذكاء الاصطناعي العام بـ "إنسان عادي قد توظفه كزميل في العمل". وأكد التعليقات التي أدلى بها العام الماضي حول كيف يمكن لهذا الذكاء الاصطناعي أن "يفعل أي شيء يمكنك فعله مع زميل بعيد"، بما في ذلك تعلم كيفية أن تكون طبيبًا ومبرمجًا جيدًا.
في حين أن مقارنة الذكاء الاصطناعي العام بذكاء "الإنسان العادي" ليست بالأمر الجديد، فقد اعتبر استخدام ألتمان لهذه العبارة "مثيرًا للاشمئزاز" من قبل عالم أخلاقيات الذكاء الاصطناعي وأستاذ جامعة كامبريدج هنري شيفلين، مع تصاعد المخاوف بشأن تأثير الذكاء الاصطناعي على الأمن الوظيفي.
إن الاختراقات المحتملة في مجال الذكاء الاصطناعي العام تثير أيضًا أجراس الإنذار لدى الباحثين الآخرين - حيث يتم تطوير التكنولوجيا بشكل أسرع مما يمكن للبشر أن يفهموا تأثيرها بالكامل.
تعتقد شركة OpenAI أن النتائج الإيجابية التي حققتها الذكاء الاصطناعي العام تجعل "حقل الألغام" المحفوف بالمخاطر يستحق المحاولة. ومع ذلك، ومع استمرار الشركة في المضي قدماً في هذا الاتجاه، يشعر كثيرون بالقلق من أن ألتمان يعطي الأولوية للنجاح التجاري على مصالح المستخدمين والمجتمع.
فونغ آنه (المصدر: Tech.co، The Guardian)
[إعلان 2]
مصدر
تعليق (0)