وبحسب وزارة العلوم والتكنولوجيا، فإنه وفقاً للاتجاه العام في العالم، من المتوقع أن تحقق أنظمة الذكاء الاصطناعي فوائد كبيرة للناس والمجتمع والاقتصاد الفيتنامي من خلال دعم وحل المشكلات الصعبة التي يواجهها الناس والمجتمع. وبالتوازي مع هذه العملية، من الضروري إجراء البحوث واتخاذ التدابير اللازمة لتقليل المخاطر في عملية تطوير واستخدام الذكاء الاصطناعي وموازنة العوامل الاقتصادية والأخلاقية والقانونية ذات الصلة. ولذلك، تحتاج الوكالات المهنية إلى البحث وتطوير المعايير والمبادئ التوجيهية، حتى لو كانت عبارة عن لوائح غير ملزمة.
حددت وزارة العلوم والتكنولوجيا في المبادئ التوجيهية تسعة مبادئ للبحث والتطوير المسؤول لأنظمة الذكاء الاصطناعي.
أولاً، روح التعاون والابتكار: يحتاج المطورون إلى مراعاة الاتصال والتشغيل البيني بين أنظمة الذكاء الاصطناعي الخاصة بهم وأنظمة الذكاء الاصطناعي الأخرى من خلال مراعاة تنوع الأنظمة لتعزيز فوائد النظام، مع تعزيز التنسيق للسيطرة على المخاطر.
ثانياً، الشفافية: إن أنظمة الذكاء الاصطناعي التي تتبع هذا المبدأ هي في أغلب الأحيان أنظمة يمكن أن تؤثر على حياة أو جسد أو خصوصية أو ممتلكات المستخدمين أو الأطراف الثالثة ذات الصلة. ويحتاج المطورون بعد ذلك إلى الاهتمام بالقدرة على تحديد مدخلات ومخرجات النظام بوضوح، فضلاً عن إمكانية التفسير ذات الصلة بناءً على خصائص التكنولوجيا المطبقة وكيفية استخدامها لضمان ثقة المجتمع، بما في ذلك المستخدمين.
ثالثا، القدرة على التحكم: لتقييم المخاطر المرتبطة بالقدرة على التحكم في النظام، يحتاج المطورون إلى إجراء تقييم مسبق لمعرفة ما إذا كان النظام يلبي المتطلبات والمعايير الفنية ذات الصلة. إحدى طرق تقييم المخاطر هي إجراء اختبار في مساحة منفصلة مع اتخاذ تدابير الأمن والسلامة قبل وضعه موضع التنفيذ.
رابعا، مبدأ السلامة: يجب على المطورين التأكد من أن نظام الذكاء الاصطناعي لن يسبب ضررا لحياة أو جسد أو ممتلكات المستخدمين أو الأطراف الثالثة، بما في ذلك من خلال الوسطاء.
5. مبادئ الأمن: بالإضافة إلى الالتزام بالوثائق والتعليمات وتنفيذ تدابير أمن المعلومات على النحو المنصوص عليه، يحتاج المطورون إلى الاهتمام بنقاط مثل: الموثوقية والمقاومة للهجمات المادية أو حوادث النظام؛ حماية؛ نزاهة؛ وتوفر المعلومات اللازمة المتعلقة بأمن المعلومات في النظام…
6- الخصوصية: يجب على المطورين التأكد من أن أنظمة الذكاء الاصطناعي لا تنتهك خصوصية المستخدمين أو الأطراف الثالثة. تشمل الخصوصية الخصوصية المكانية (راحة البال في الحياة الشخصية)، وخصوصية المعلومات (البيانات الشخصية)، وسرية الاتصالات. يجب على المطورين الامتثال للوائح والمبادئ التوجيهية المعمول بها؛ يمكن الاطلاع على المعايير والمبادئ التوجيهية الدولية بشأن الخصوصية.
ينبغي للمطورين إجراء تقييم مسبق لمخاطر الخصوصية وإجراء تقييم مسبق لتأثيرات الخصوصية. - اتخاذ التدابير اللازمة، قدر الإمكان، بما يتناسب مع خصائص التكنولوجيا المستخدمة أثناء تطوير النظام لتجنب انتهاك الخصوصية عند استخدامه.
سابعاً، احترام حقوق الإنسان وكرامته: عند تطوير أنظمة الذكاء الاصطناعي التي تتضمن البشر، يجب على المطورين أن يحرصوا بشكل خاص على احترام حقوق الإنسان وكرامة الأفراد المعنيين. يجب على المطورين، قدر الإمكان، واعتمادًا على خصائص التكنولوجيا المطبقة، أن يتخذوا التدابير اللازمة لضمان عدم التسبب في التمييز أو الظلم بسبب التحيز في البيانات عند تدريب النظام.
يجب على المطورين اتخاذ الاحتياطات اللازمة لضمان عدم انتهاك النظام للقيم الإنسانية والأخلاق الاجتماعية وفقًا للمبادئ الأساسية لفيتنام (على سبيل المثال، القيم بما في ذلك الوطنية والتضامن والاعتماد على الذات والولاء والصدق والمسؤولية والانضباط والإبداع، إلخ).
8. دعم المستخدم: لدعم المستخدمين، يحتاج مطورو النظام إلى الاهتمام بنقاط مثل: إنشاء واجهات جاهزة لتوفير المعلومات ذات الصلة في الوقت المناسب لمساعدة المستخدمين على اتخاذ القرارات والاستخدام المريح؛ اتخاذ التدابير اللازمة لجعل النظام أسهل في الاستخدام بالنسبة للأفراد الضعفاء في المجتمع (كبار السن، ذوي الإعاقة)….
9- المساءلة: يتعين على المطورين ممارسة المساءلة عن الأنظمة التي يطورونها لضمان ثقة المستخدمين. وعلى وجه التحديد، من الضروري تزويد المستخدمين بالمعلومات لمساعدتهم في اختيار النظام واستخدامه. بالإضافة إلى ذلك، لزيادة القبول الاجتماعي للأنظمة، ينبغي للمطورين بذل المزيد من الجهود: تزويد المستخدمين بالمعلومات وأوصاف الخصائص التقنية للأنظمة التي يطورونها، والخوارزميات، وآليات الأمان، وما إلى ذلك؛ الاستماع إلى وجهات النظر والحوار مع أصحاب المصلحة.
[إعلان 2]
المصدر: https://nhandan.vn/nghien-cuu-phat-trien-cac-he-thong-tri-tue-nhan-tao-co-trach-nhiem-post814609.html
تعليق (0)