SGGP
قدمت الحكومة الأسترالية مؤخراً عدة مقترحات لخطة تهدف إلى تعزيز التزامات الشركات العاملة عبر الإنترنت في حماية الأطفال ومستخدمي الإنترنت من المحتوى الضار.
| تأمل أستراليا أن تساعد التغييرات المقترحة على اللوائح في الحفاظ على سلامة الأطفال على الإنترنت. |
ووفقاً لوزيرة الاتصالات الأسترالية ميشيل رولاند، فقد تم طرح التغييرات المقترحة بعد أن أثيرت مخاوف من أن الحكومة لم تبذل ما يكفي لضمان سلامة الأطفال أثناء مشاركتهم في الأنشطة عبر الإنترنت.
صرحت السيدة رولاند بأن التغييرات المقترحة ستسمح بنطاق أوسع من التنظيم ليشمل الخوارزميات والذكاء الاصطناعي التركيبي، مما يضمن أن تكون مصالح الأطفال هي الأولوية القصوى عند تصميم أي خدمة.
أوضحت السيدة رولاند قائلةً: "نعلم أن الأطفال عرضة للمحتوى الضار على الإنترنت، ومن الضروري إعطاء الأولوية لمصالحهم الفضلى طوال دورة تصميم ونشر الخدمات"، مُسلطةً الضوء على أهمية إعطاء الأولوية للأطفال في تصميم المحتوى الذي يمكنهم الوصول إليه. وستُختتم المشاورات حول التعديلات المقترحة على مزودي الخدمات عبر الإنترنت، بما في ذلك مزودي وسائل التواصل الاجتماعي، في فبراير 2024. وقبل ذلك، في أغسطس، دعت هيئة السلامة الإلكترونية الأسترالية (eSafety) إلى فرض رقابة تنظيمية على قطاع التكنولوجيا والإعلام.
بحسب وكالة السلامة الإلكترونية، تلقت الوكالة شكاوى بشأن استخدام الأطفال لأجهزة الكمبيوتر لإنشاء صور إباحية لأقرانهم لأغراض التنمر. وتؤكد الوكالة على ضرورة اتخاذ مزودي الخدمات "خطوات معقولة" للحدّ بشكل استباقي من قدرة الذكاء الاصطناعي على توليد مواد أو تهيئة الظروف لأنشطة غير قانونية أو ضارة، بما في ذلك مقاطع الفيديو المزيفة التي يُنشئها الذكاء الاصطناعي.
سبق أن حذّرت منظمة "السلامة الإلكترونية" من ضرورة تطبيق إجراءات أكثر صرامة للتحقق من أعمار الأطفال على المواقع الإلكترونية التي يستخدمونها، وذلك لمنع إجبارهم على إنشاء مواد أو محتوى جنسي مسيء. وبعد تحليل أكثر من 1300 بلاغ عن حالات اعتداء جنسي على الأطفال، وجدت المنظمة أن طفلاً واحداً من بين كل ثمانية أطفال "أنشأ" هذا المحتوى بنفسه، غالباً على يد متحرشين أجبروه على تصوير أو التقاط صور لأفعال جنسية صريحة. وفي الواقع، يستطيع الأطفال تجاوز التحقق من أعمارهم بسهولة عند دخولهم إلى المواقع الإلكترونية.
في السادس والعشرين من نوفمبر، أعلنت الولايات المتحدة والمملكة المتحدة وأكثر من عشر دول أخرى عن اتفاقية دولية بشأن سلامة الذكاء الاصطناعي. ووفقًا لمسؤولين أمريكيين، تُعد هذه الاتفاقية الأولى من نوعها التي تُفصّل كيفية ضمان الاستخدام الآمن لتقنية الذكاء الاصطناعي، وتحثّ شركات التكنولوجيا على إنشاء أنظمة ذكاء اصطناعي آمنة منذ مرحلة التصميم. وتنص الوثيقة على أن 18 دولة اتفقت على ضرورة قيام الشركات التي تُصمّم وتستخدم الذكاء الاصطناعي بتطوير ونشر هذه التقنية المتقدمة. والاتفاقية غير ملزمة، وتُقدّم في المقام الأول توصيات عامة، مثل رصد إساءة استخدام الذكاء الاصطناعي وحماية البيانات.
مصدر






تعليق (0)