ومن المقرر أن يواصل المشرعون مناقشة اللوائح التفصيلية في الأسابيع المقبلة بهدف الانتهاء من العملية في أوائل العام المقبل، مع خطة لتطبيقها اعتبارًا من عام 2026.

وحتى ذلك الحين، يتم تشجيع الشركات على التوقيع على ميثاق الذكاء الاصطناعي الطوعي للوفاء بالالتزامات الرئيسية للقواعد.

فيما يلي المحتويات الرئيسية للاتفاقية التي وافق عليها الاتحاد الأوروبي.

نظام عالي الخطورة

وسيتعين على ما يسمى بأنظمة الذكاء الاصطناعي عالية المخاطر - تلك التي يُعتقد أنها من المرجح أن تسبب ضرراً كبيراً للصحة والسلامة والحقوق الأساسية والبيئة والديمقراطية والانتخابات وسيادة القانون - أن تمتثل لمجموعة من المتطلبات، مثل الخضوع لتقييمات الأثر على الحقوق الأساسية والتزامات الوصول إلى أسواق الاتحاد الأوروبي.

eltqxowexvjbnmywubkxiyj3ha.jpg
Huenit، وهي كاميرا ذكاء اصطناعي مثبتة على ذراع آلية في معرض التكنولوجيا الاستهلاكية الذي أقيم في برلين في الأول من سبتمبر 2023. الصورة: رويترز

وفي الوقت نفسه، ستخضع الأنظمة منخفضة المخاطر لالتزامات شفافية أخف، مثل وضع علامات على المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي حتى يتمكن المستخدمون من التفكير في استخدامه.

الذكاء الاصطناعي في إنفاذ القانون

ولا يُسمح لوكالات إنفاذ القانون إلا باستخدام أنظمة التعريف البيومترية عن بعد في الوقت الفعلي في الأماكن العامة، لتحديد هوية ضحايا الاختطاف، والاتجار بالبشر، والاستغلال الجنسي، ومنع التهديدات الإرهابية المحددة والوشيكة.

وسيتم السماح للسلطات أيضًا باستخدام تقنية الذكاء الاصطناعي لتتبع المشتبه بهم في الإرهاب والاتجار بالبشر والاستغلال الجنسي والقتل والخطف والاغتصاب والسطو المسلح والمشاركة في منظمة إجرامية والجرائم البيئية.

أنظمة الذكاء الاصطناعي العامة والمنصة (GPAI)

وسوف تخضع GPAI والنماذج الأساسية لها لمتطلبات الشفافية مثل إنتاج الوثائق الفنية، والامتثال لقانون حقوق النشر في الاتحاد الأوروبي، ونشر ملخصات مفصلة للمحتوى المستخدم لتدريب الخوارزميات.

ستكون نماذج المنصات التي تندرج ضمن فئة المخاطر النظامية المحتملة والتأثيرات العالية مطلوبة من GPAI لإجراء تقييم عام للنموذج ومراجعة المخاطر والتخفيف منها وإجراء اختبارات الهندسة العكسية وإخطار المفوضية الأوروبية بالحوادث الخطيرة وضمان الأمن السيبراني وإعداد تقارير عن استهلاك الطاقة.

أوواد7543vnahei6k3ozfuuo5u.jpg
الروبوت "رميكا" في القمة العالمية الجيدة في جنيف، سويسرا. الصورة: رويترز

حتى يتم نشر المعايير الموحدة للاتحاد الأوروبي، فإن هيئات تنظيم الصناعة العامة معرضة لخطر منهجي يتمثل في الاعتماد على قواعد الممارسة للامتثال للوائح.

تم حظر أنظمة الذكاء الاصطناعي

تشمل السلوكيات والمحتوى المحظور ما يلي: أنظمة التصنيف البيومترية التي تستخدم خصائص حساسة مثل السياسة والدين والمعتقدات الفلسفية والتوجه الجنسي والعرق؛

المسح غير المستهدف لصور الوجه من الإنترنت أو لقطات كاميرات المراقبة لإنشاء قاعدة بيانات للتعرف على الوجه؛

التعرف على المشاعر في مكان العمل وفي الأوساط التعليمية؛

التقييم الاجتماعي على أساس السلوك الاجتماعي أو الخصائص الشخصية؛

تعمل أنظمة الذكاء الاصطناعي على التلاعب بالسلوك البشري لتقويض إرادته الحرة؛

يتم استخدام الذكاء الاصطناعي لاستغلال نقاط الضعف البشرية بسبب سنهم، أو إعاقتهم، أو ظروفهم الاقتصادية أو الاجتماعية.

العقوبات

وبحسب المخالفة وحجم الشركة المعنية، ستبدأ الغرامات عند 7.5 مليون يورو (8 ملايين دولار) أو 1.5% من إجمالي المبيعات السنوية، وترتفع إلى 35 مليون يورو أو 7% من إجمالي المبيعات.

(بحسب رويترز)

الاتحاد الأوروبي يتوصل إلى اتفاق تاريخي لتنظيم الذكاء الاصطناعي

الاتحاد الأوروبي يتوصل إلى اتفاق تاريخي لتنظيم الذكاء الاصطناعي

سيتم بموجب اتفاق بين البرلمان الأوروبي والدول الأعضاء تنظيم الذكاء الاصطناعي ووسائل التواصل الاجتماعي ومحركات البحث.
الاتحاد الأوروبي يتوصل إلى اتفاق بشأن قانون حماية الأجهزة الذكية

الاتحاد الأوروبي يتوصل إلى اتفاق بشأن قانون حماية الأجهزة الذكية

في 30 نوفمبر/تشرين الثاني، توصل المشرعون في الاتحاد الأوروبي إلى اتفاق أولي بشأن اقتراح لحماية الأجهزة المتصلة، والذي يتطلب ضمان الأمن السيبراني للمنتجات ذات العناصر الرقمية قبل وضعها موضع الاستخدام في هذا السوق.
الاتحاد الأوروبي يتخذ إجراءات صارمة ضد شركات التكنولوجيا العملاقة ويهدد بتفكيك الشركات المخالفة

الاتحاد الأوروبي يتخذ إجراءات صارمة ضد شركات التكنولوجيا العملاقة ويهدد بتفكيك الشركات المخالفة

يواصل الاتحاد الأوروبي تشديد إدارة شركات التكنولوجيا الكبرى بعقوبات صارمة يمكن أن تفرض غرامات تتراوح بين 10% و20% من الإيرادات العالمية، بل وحتى إجبار الشركات التي لا تمتثل للوائح على الانقسام.