مخاطر فقدان السيطرة على الذكاء الاصطناعي
يبدو أن البشرية تتجاهل شبحًا يلوح في الأفق. إنه شبح حرب نووية عالمية ناجمة عن الذكاء الاصطناعي. وحذر الأمين العام للأمم المتحدة أنطونيو غوتيريش من ذلك. ولكن حتى الآن، فشلت الدول المسلحة نوويا في التعاون للتفاوض بشأن هذا التهديد الكارثي.
ويثير التطور السريع للذكاء الاصطناعي خطر تدخل الذكاء الاصطناعي في عملية إطلاق الأسلحة النووية. توضيح
لقد كان هناك منذ فترة طويلة إجماع غير رسمي بين القوى النووية الخمس الكبرى - الولايات المتحدة وروسيا والصين والمملكة المتحدة وفرنسا - على مبدأ "البشر في الحلقة"، وهذا يعني أن كل دولة لديها نظام لضمان مشاركة البشر في قرار إطلاق الأسلحة النووية.
ولم تعلن أي من القوى الخمس الكبرى عن نشر الذكاء الاصطناعي في أنظمة قيادة الإطلاق النووي الخاصة بها. وبحسب الدكتور سونديب واسليكار، رئيس مجموعة الاستشراف الاستراتيجي، وهي منظمة بحثية دولية في مومباي (الهند)، فإن هذا صحيح ولكنه مضلل.
يتم بالفعل استخدام الذكاء الاصطناعي للكشف عن التهديدات واختيار الهدف. تقوم الأنظمة المدعومة بالذكاء الاصطناعي بتحليل كميات هائلة من البيانات من أجهزة الاستشعار والأقمار الصناعية والرادارات في الوقت الفعلي، وتحليل الهجمات الصاروخية الواردة واقتراح خيارات الرد.
ويقوم المشغل بعد ذلك بفحص التهديد من مصادر مختلفة ويقرر ما إذا كان سيقوم باعتراض الصواريخ المعادية أو شن ضربات انتقامية.
قال سونديب واسليكار: "حاليًا، تتراوح مدة الاستجابة المتاحة للمشغلين بين 10 و15 دقيقة. وبحلول عام 2030، سينخفض هذا الوقت إلى 5 إلى 7 دقائق". بينما سيتخذ البشر القرارات النهائية، سيتأثرون بتحليلات الذكاء الاصطناعي التنبؤية والتوجيهية. وقد يكون الذكاء الاصطناعي المحرك الرئيسي لقرارات الإطلاق في ثلاثينيات القرن الحادي والعشرين.
المشكلة هي أن الذكاء الاصطناعي يمكن أن يرتكب أخطاء. يمكن لخوارزميات اكتشاف التهديدات أن تشير إلى هجوم صاروخي في حين أنه لا يوجد أي هجوم. قد يكون السبب هو أخطاء الكمبيوتر، أو اقتحامات الشبكة أو العوامل البيئية التي تحجب الإشارات. إذا لم يؤكد المشغلون الإنذارات الكاذبة من مصادر أخرى خلال دقيقتين إلى ثلاث دقائق، فقد يتسبب ذلك في هجمات انتقامية.
خطأ صغير جدًا، كارثة ضخمة
ومن المعروف أن استخدام الذكاء الاصطناعي في العديد من الوظائف المدنية مثل التنبؤ بالجرائم والتعرف على الوجه وتشخيص السرطان يبلغ هامش الخطأ فيه 10٪. وبحسب السيد سونديب واسليكار، فإن هامش الخطأ في أنظمة الإنذار المبكر النووي قد يصل إلى نحو 5%.
ومع تحسن دقة خوارزميات التعرف على الصور على مدى العقد المقبل، فإن هامش الخطأ قد ينخفض إلى 1-2%. ولكن حتى هامش الخطأ بنسبة 1% قد يكون سبباً في اندلاع حرب نووية عالمية.
قد تكون أخطاء الذكاء الاصطناعي هي السبب وراء اتخاذ قرارات الضربة النووية أو الانتقام. الصورة: معهد الحرب الحديثة
وقد يزداد الخطر خلال العامين أو الثلاثة أعوام المقبلة مع ظهور برامج ضارة جديدة قادرة على تجاوز أنظمة الكشف عن التهديدات. سوف تتكيف البرمجيات الخبيثة لتجنب الكشف، وتحديد الأهداف تلقائيًا ومهاجمتها تلقائيًا.
لقد كانت هناك عدة مواقف "خطيرة" خلال الحرب الباردة. في عام 1983، اكتشف القمر الصناعي السوفييتي عن طريق الخطأ خمسة صواريخ أطلقتها الولايات المتحدة. وخلص ستانيسلاف بيتروف، الضابط في مركز القيادة الروسي "سيبوخوف-15"، إلى أن الإنذار كان كاذبا ولم ينبه رؤساءه حتى يتمكنوا من شن هجوم مضاد.
في عام 1995، رصدت محطة الرادار في أولينيجورسك هجومًا صاروخيًا قبالة سواحل النرويج. وتم وضع القوات الاستراتيجية الروسية في حالة تأهب قصوى، وتم تسليم الحقيبة النووية إلى الرئيس الروسي آنذاك بوريس يلتسين. لقد شك في أن الأمر كان خطأ ولم يضغط على الزر. اتضح أنه كان صاروخًا علميًا. إذا تم استخدام الذكاء الاصطناعي لتحديد الاستجابات في كلتا الحالتين، فإن النتائج قد تكون كارثية.
في الوقت الحالي، تستخدم الصواريخ الأسرع من الصوت الأتمتة التقليدية بدلاً من الذكاء الاصطناعي. ويمكنها السفر بسرعات تتراوح من 5 ماخ إلى 25 ماخ، مما يتيح لها تجنب اكتشاف الرادار والتحكم في مسار رحلتها. تخطط القوى العظمى لتعزيز الصواريخ الأسرع من الصوت بالذكاء الاصطناعي لتحديد الأهداف المتحركة وتدميرها على الفور، مما يؤدي إلى تحويل قرار القتل من البشر إلى الآلات.
وهناك أيضًا سباق لتطوير الذكاء الاصطناعي العام، والذي قد يؤدي إلى ظهور نماذج ذكاء اصطناعي تعمل خارج نطاق السيطرة البشرية. وعندما يحدث هذا، سوف تتعلم أنظمة الذكاء الاصطناعي كيفية تعزيز نفسها وتكرارها، والاستيلاء على عمليات صنع القرار. وعندما يتم دمج مثل هذه الذكاء الاصطناعي في أنظمة دعم القرار الخاصة بالأسلحة النووية، فسوف تكون الآلات قادرة على بدء حروب مدمرة.
حان وقت العمل
وإزاء المخاطر المذكورة أعلاه، يعتقد العديد من الخبراء أن البشرية بحاجة إلى اتفاق شامل بين القوى الكبرى لتقليل خطر الحرب النووية، بما يتجاوز مجرد تكرار شعار "البشر في الدائرة".
ويجب أن تتضمن هذه الاتفاقية تدابير للشفافية والمساءلة والتعاون؛ المعايير الدولية للاختبار والتقييم؛ قنوات الاتصال في حالات الأزمات؛ اللجان الإشرافية الوطنية؛ ووضع قواعد لمنع نماذج الذكاء الاصطناعي العدوانية القادرة على تجاوز المشغلين البشريين.
الأمين العام أنطونيو غوتيريش يحضر حفل تذكاري للسلام في هيروشيما، التي تعرضت لقنبلة ذرية في عام 1945. الصورة: الأمم المتحدة
إن التغيرات الجيوسياسية تخلق فرصة للتوصل إلى معاهدة كهذه. على سبيل المثال، انخرط خبراء الذكاء الاصطناعي البارزون من الصين والولايات المتحدة في عدد من الحوارات الثنائية حول مخاطر الذكاء الاصطناعي، مما أدى إلى إصدار بيان مشترك من قبل الرئيس الأمريكي السابق جو بايدن والرئيس الصيني شي جين بينج في نوفمبر/تشرين الثاني الماضي.
وفقًا للدكتور سونديب واسليكار، فإن الملياردير إيلون ماسك هو مدافع قوي عن ضرورة إنقاذ البشرية من المخاطر الوجودية التي يفرضها الذكاء الاصطناعي. ويمكن للسيد ماسك أن يحث الرئيس الأمريكي الحالي دونالد ترامب على تحويل البيان المشترك بين السيد جو بايدن والسيد شي جين بينج إلى معاهدة.
ويتطلب تحدي الذكاء الاصطناعي النووي أيضًا مشاركة روسيا، وفقًا للدكتور سونديب واسليكار. حتى شهر يناير/كانون الثاني من هذا العام، رفضت روسيا مناقشة أي تدابير للحد من المخاطر النووية، بما في ذلك التقارب مع الذكاء الاصطناعي، ما لم يتم طرح قضية أوكرانيا للمناقشة.
ومع انخراط الرئيس دونالد ترامب في حوار مع الرئيس الروسي فلاديمير بوتن لتحسين العلاقات الثنائية وإنهاء الحرب في أوكرانيا، ربما تكون روسيا الآن منفتحة على المناقشات.
في فبراير/شباط من هذا العام، وفي أعقاب خطاب نائب الرئيس الأمريكي جيه دي فانس في قمة باريس للعمل بشأن الذكاء الاصطناعي، أصدر مركز الأمن الأمريكي الجديد (CNAS) أيضًا تقريرًا بعنوان "منع يوم القيامة للذكاء الاصطناعي: المنافسة بين الولايات المتحدة والصين وروسيا في تقاطع الأسلحة النووية والذكاء الاصطناعي".
يحدد التقرير المخاطر الأكثر أهمية التي قد تنجم عن العلاقة بين الذكاء الاصطناعي والطاقة النووية، ويحث الإدارة الأميركية على إنشاء مجموعة شاملة من آليات التخفيف من المخاطر وإدارة الأزمات مع الصين وروسيا.
وفي سبتمبر/أيلول الماضي، اعتمدت نحو 60 دولة، بما في ذلك الولايات المتحدة، "خطة عمل" لإدارة الاستخدام المسؤول للذكاء الاصطناعي في الجيش، وذلك خلال قمة الذكاء الاصطناعي المسؤول في الجيش (REAIM) التي عقدت في سيول، كوريا الجنوبية. وهذا هو المؤتمر الثاني من نوعه، بعد المؤتمر الذي عقد في لاهاي العام الماضي. وتظهر هذه التحركات أن خطر اندلاع حرب نووية بسبب الذكاء الاصطناعي ليس خيالاً علمياً.
من الواضح أن العالم يواجه مشكلة وجودية ملحة بشكل متزايد تتطلب تحركًا حقيقيًا من القوى النووية لضمان أن "كل قرار بشأن استخدام الأسلحة النووية يتخذه الناس، وليس الآلات أو الخوارزميات" - كما دعا الأمين العام للأمم المتحدة أنطونيو غوتيريش.
نجوين خانه
تعليق (0)