فيتنام لديها أول مجموعة من قواعد أخلاقيات الذكاء الاصطناعي

من المتوقع أن يحقق الذكاء الاصطناعي فوائد كبيرة للناس والمجتمع والاقتصاد الفيتنامي. إلى جانب تطبيق الذكاء الاصطناعي، قامت فيتنام في البداية بالبحث واتخاذ التدابير اللازمة لتقليل المخاطر في عملية تطوير واستخدام الذكاء الاصطناعي، مع تحقيق التوازن بين العوامل الاقتصادية والأخلاقية والقانونية.

وهذا هو السبب أيضًا وراء إصدار وزارة العلوم والتكنولوجيا مجموعة من الوثائق التي توجه عددًا من المبادئ بشأن البحث والتطوير المسؤول لأنظمة الذكاء الاصطناعي.

تتضمن وثيقة التوجيه عددًا من المبادئ العامة والتوصيات الطوعية للرجوع إليها وتطبيقها في عملية البحث وتصميم وتطوير وتوفير أنظمة الذكاء الاصطناعي.

يتم تشجيع الوكالات العلمية والتكنولوجية والمنظمات والشركات والأفراد المشاركين في البحث والتصميم والتطوير وتوفير أنظمة الذكاء الاصطناعي على تطبيق وثيقة التوجيه هذه.

W-vien-han-lam-illustration-ai-tri-tue-nhan-tao-1.jpg
نماذج روبوتية تابعة لأكاديمية العلوم والتكنولوجيا الفيتنامية في معرض فيتنام الدولي للابتكار 2023. تصوير: ترونغ دات

وعليه، فإن البحث والتطوير في مجال أنظمة الذكاء الاصطناعي في فيتنام يجب أن يرتكز على وجهة نظر أساسية تتمثل في التحرك نحو مجتمع يركز على الإنسان، حيث يتمتع الجميع بفوائد الذكاء الاصطناعي، مع ضمان التوازن المعقول بين الفوائد والمخاطر.

تهدف أنشطة البحث والتطوير لأنظمة الذكاء الاصطناعي في فيتنام إلى ضمان الحياد التكنولوجي. وفي جميع الأحوال، تشجع وزارة العلوم والتكنولوجيا التبادل والمناقشة بمشاركة الأطراف المعنية. وسوف تستمر عملية البحث والتحديث للمبادئ والإرشادات لتناسب المواقف العملية.

وقالت وزارة العلوم والتكنولوجيا إن ميلاد مجموعة الوثائق يهدف إلى تعزيز الاهتمام بالبحث والتطوير واستخدام الذكاء الاصطناعي في فيتنام بطريقة آمنة ومسؤولة، وتقليل الآثار السلبية على الناس والمجتمع. وسوف يؤدي هذا إلى زيادة ثقة المستخدمين والمجتمع في الذكاء الاصطناعي وتسهيل البحث والتطوير في مجال الذكاء الاصطناعي في فيتنام.

مبادئ تطوير الذكاء الاصطناعي المسؤول

وفي الوثيقة، يتم تشجيع المطورين على إظهار روح التعاون، وتعزيز الابتكار من خلال الاتصال والتفاعل بين أنظمة الذكاء الاصطناعي. يتعين على المطورين ضمان الشفافية من خلال التحكم في مدخلات/مخرجات نظام الذكاء الاصطناعي والقدرة على شرح التحليلات ذات الصلة.

ويحتاج المطورون إلى الاهتمام بالقدرة على التحكم في أنظمة الذكاء الاصطناعي وتقييم المخاطر التي تنطوي عليها مسبقًا. إحدى طرق تقييم المخاطر هي إجراء الاختبار في مكان منفصل مثل المختبر أو بيئة يتم فيها ضمان الأمن والسلامة قبل وضعه موضع الاستخدام العملي.

بالإضافة إلى ذلك، لضمان إمكانية التحكم في أنظمة الذكاء الاصطناعي، يجب على المطورين الاهتمام بمراقبة النظام (باستخدام أدوات التقييم/المراقبة أو التصحيح/التحديث بناءً على تعليقات المستخدم) وتدابير الاستجابة (إيقاف تشغيل النظام، وإيقاف تشغيل الشبكة، وما إلى ذلك) التي يقوم بها البشر أو أنظمة الذكاء الاصطناعي الموثوقة.

روبوت الذكاء الاصطناعي أنان 3.jpg
شاب يطرح سؤالا على "الروبوت" أنان الذي يعمل بالذكاء الاصطناعي والذي طوره مهندسون فيتناميون. الصورة: ترونغ دات

يتعين على المطور التأكد من أن نظام الذكاء الاصطناعي لن يسبب ضررًا لحياة المستخدم أو جسده أو ممتلكاته أو لطرف ثالث، بما في ذلك من خلال وسيط؛ وينبغي الاهتمام بأمن نظام الذكاء الاصطناعي وموثوقيته وقدرته على الصمود في وجه الهجمات المادية أو الحوادث؛ من الضروري التأكد من أن أنظمة الذكاء الاصطناعي لا تنتهك خصوصية المستخدمين أو الأطراف الثالثة. وتشمل حقوق الخصوصية المذكورة في المبدأ الخصوصية المكانية (راحة البال في الحياة الشخصية)، وخصوصية المعلومات (البيانات الشخصية)، وسرية الاتصالات.

عند تطوير أنظمة الذكاء الاصطناعي، يجب على المطورين إيلاء اهتمام خاص لاحترام حقوق الإنسان وكرامته. يجب على المطورين، قدر الإمكان، واعتمادًا على خصائص التكنولوجيا المطبقة، اتخاذ التدابير اللازمة لضمان عدم التسبب في التمييز أو الظلم بسبب التحيز (الأحكام المسبقة) في بيانات التدريب. وليس هذا فحسب، بل يتعين على المطورين الوفاء بمسؤولياتهم تجاه أصحاب المصلحة ودعم المستخدمين.

لا ينبغي للصحافة في عصر 4.0 أن تفوت "قطار الذكاء الاصطناعي عالي السرعة" . بدلاً من التردد والخوف من الذكاء الاصطناعي، ينبغي للصحفيين أن يعملوا بشكل استباقي على جلب الذكاء الاصطناعي إلى عمليات غرف الأخبار.