وقال الرئيس التنفيذي لشركة فيسبوك سام ألتمان: "أنا قلق بشأن ذلك"، في إشارة إلى الاستخدام المحتمل للذكاء الاصطناعي للتدخل في الانتخابات، مشددا على الحاجة إلى قواعد وإرشادات إضافية لتنظيم مجال الذكاء الاصطناعي.
الرئيس التنفيذي لشركة ChatGPT سام ألتمان يشهد أمام الكونجرس الأمريكي. الصورة: إن بي سي
على مدى الأشهر القليلة الماضية، كانت الشركات الكبيرة والصغيرة تتسابق لجلب منتجات الذكاء الاصطناعي إلى السوق، وقد أشعلت موجة جنون ChatGPT. ويخشى بعض المنتقدين من أن تؤدي التكنولوجيا إلى تفاقم الأضرار الاجتماعية، بما في ذلك تعميق الأحكام المسبقة ونشر المعلومات المضللة.
قال السيناتور كوري بوكر، وهو واحد من العديد من المشرعين الذين يتساءلون عن أفضل السبل لتنظيم الذكاء الاصطناعي: "لا توجد طريقة لتنظيم الذكاء الاصطناعي بشكل كامل، خاصة وأن جنون الذكاء الاصطناعي ينفجر على مستوى العالم".
تشير السناتور مازي هيرونو إلى خطر انتشار المعلومات المضللة على نطاق واسع مع اقتراب موعد الانتخابات في عام 2024. وفي حديثه لأول مرة أمام الكونجرس الأمريكي، اقترح ألتمان أن تنظر الولايات المتحدة في متطلبات الترخيص والاختبار لتطوير نماذج الذكاء الاصطناعي.
وعندما طُلب منه التعليق على الذكاء الاصطناعي الذي ينبغي ترخيصه، قال إن النموذج الذي يمكنه إقناع أو التلاعب بمعتقدات الشخص سيكون "خطًا يجب مراعاته".
وقال أيضًا إن الشركات يجب أن يكون لها الحق في القول إنها لا تريد استخدام بياناتها لتدريب الذكاء الاصطناعي، وهو الأمر الذي يجري مناقشته أيضًا في الكونجرس الأمريكي.
استدعى البيت الأبيض كبار الرؤساء التنفيذيين لشركات التكنولوجيا، بما في ذلك سام ألتمان، لمعالجة قضية الذكاء الاصطناعي. ويعمل المشرعون الأمريكيون أيضًا على إيجاد حلول لتعزيز فوائد التكنولوجيا والأمن القومي مع الحد من إساءة استخدام الذكاء الاصطناعي.
اقترح أحد موظفي OpenAI مؤخرًا أن تقوم الولايات المتحدة بإنشاء هيئة ترخيص للذكاء الاصطناعي، والتي يمكن تسميتها بمكتب سلامة وأمن البنية التحتية للذكاء الاصطناعي، أو OASIS.
OpenAI مدعوم من قبل Microsoft. ويدعو ألتمان أيضًا إلى التعاون العالمي في مجال الذكاء الاصطناعي وتشجيع الشركات على الالتزام بقواعد السلامة.
دعت كريستينا مونتجومري، مسؤولة الثقة والخصوصية في شركة آي بي إم، الكونجرس إلى تركيز التنظيم على المجالات ذات الإمكانات الأكبر للتسبب في الضرر الاجتماعي.
هوانغ تون (بحسب شبكة إن بي سي، رويترز)
[إعلان رقم 2]
مصدر
تعليق (0)