اجتمعت مجموعة من الخبراء الدوليين البارزين في بكين الأسبوع الماضي، حيث حددوا "الخطوط الحمراء" في تطوير الذكاء الاصطناعي، بما في ذلك إنشاء الأسلحة البيولوجية وتنفيذ الهجمات الإلكترونية.
وفي بيان صدر بعد أيام من الاجتماع، حذر العلماء من أن هناك حاجة إلى نهج مشترك لسلامة الذكاء الاصطناعي لمنع "المخاطر الكارثية أو حتى الوجودية التي تهدد البشرية في حياتنا".
"في ذروة الحرب الباردة، ساعد التعاون الحكومي والعلمي الدولي في منع وقوع كارثة نووية. وجاء في البيان: "إن البشرية بحاجة مرة أخرى إلى العمل معًا لمنع كارثة قد تنشأ عن تكنولوجيا غير مسبوقة".
حدد الخبراء المشاركون في الحوار الدولي حول سلامة الذكاء الاصطناعي في بكين "خطوطًا حمراء" في تطوير الذكاء الاصطناعي. الصورة: FT
ومن بين الموقعين على الرسالة جيفري هينتون ويوشوا بينجيو، اللذين يوصفان في كثير من الأحيان بأنهما "آباء" الذكاء الاصطناعي؛ ستيوارت راسل، أستاذ علوم الكمبيوتر في جامعة كاليفورنيا؛ وأندرو ياو، أحد أبرز علماء الكمبيوتر في الصين.
ويأتي هذا البيان بعد الحوار الدولي حول سلامة الذكاء الاصطناعي الذي عقد في بكين الأسبوع الماضي، وهو اجتماع حضره مسؤولون من الحكومة الصينية للتعبير عن موافقتهم على المنتدى ونتائجه.
التقى الرئيس الأمريكي جو بايدن والرئيس الصيني شي جين بينج في نوفمبر/تشرين الثاني الماضي وناقشا سلامة الذكاء الاصطناعي، واتفقا على إقامة حوار بشأن هذه القضية. كما التقت شركات الذكاء الاصطناعي الرائدة في العالم مع خبراء الذكاء الاصطناعي الصينيين على انفراد في الأشهر الأخيرة.
في نوفمبر/تشرين الثاني 2023، وافقت 28 دولة، بما في ذلك الصين، وشركات الذكاء الاصطناعي الرائدة على التزام واسع النطاق بالعمل معًا لمعالجة المخاطر الوجودية الناجمة عن الذكاء الاصطناعي المتقدم في قمة سلامة الذكاء الاصطناعي التي نظمها المستشار البريطاني ريشي سوناك.
في الأسبوع الماضي، ناقش الخبراء في بكين التهديدات المرتبطة بتطوير "الذكاء العام الاصطناعي" أو أنظمة الذكاء الاصطناعي التي تعادل البشر أو تتفوق عليهم.
وقال بينجيو: "كان التركيز الأساسي للمناقشة هو الخطوط الحمراء التي لا ينبغي لأي نظام ذكاء اصطناعي قوي أن يتجاوزها والتي ينبغي للحكومات في جميع أنحاء العالم فرضها في تطوير ونشر الذكاء الاصطناعي".
هذه الخطوط الحمراء من شأنها أن تضمن "عدم قدرة أي نظام ذكاء اصطناعي على تكرار نفسه أو تحسين نفسه دون موافقة ودعم بشري صريحين" أو "اتخاذ إجراءات من شأنها أن تزيد من قوته ونفوذه بشكل غير ملائم".
وأضاف العلماء أنه لا يوجد نظام "سيعزز بشكل كبير قدرة الجهات الفاعلة على تصميم أسلحة الدمار الشامل، أو انتهاك اتفاقية الأسلحة البيولوجية أو الكيميائية" أو يكون قادرًا على "تنفيذ هجمات إلكترونية تلقائيًا تؤدي إلى خسائر مالية جسيمة أو ضرر مكافئ".
هوانغ هاي (وفقا لصحيفة فاينانشال تايمز)
[إعلان 2]
مصدر
تعليق (0)