أخلاقيات العاملين في وسائل الإعلام عند استخدام تكنولوجيا الذكاء الاصطناعي

Báo Quốc TếBáo Quốc Tế27/10/2024

نحن نعيش في عصر الثورة الصناعية 4.0، حيث أصبح الذكاء الاصطناعي تدريجياً جزءاً لا غنى عنه في العديد من مجالات الحياة الاجتماعية. ولا يمكن لوسائل الإعلام، باعتبارها جسراً للمعلومات بين الجمهور والأحداث، أن تكون خارج هذا الاتجاه.


Đạo đức của người làm truyền thông khi sử dụng công nghệ AI
السيدة نجوين ثي هاي فان - مديرة مركز تدريب الصحافة، جمعية الصحفيين الفيتناميين في ورشة عمل حول تكنولوجيا الذكاء الاصطناعي. (المصدر: جمعية الصحفيين الفيتناميين)

وللاستفادة القصوى من المزايا التي توفرها الذكاء الاصطناعي، يتعين على خبراء الاتصالات أن يزودوا أنفسهم بالمعرفة اللازمة لاستخدام الذكاء الاصطناعي بشكل فعال، مع ضمان الموثوقية والأخلاقيات في نقل المعلومات.

من "حرارة" الذكاء الاصطناعي

من الواضح تمامًا أن الذكاء الاصطناعي هو أحد الكلمات الرئيسية الأكثر شيوعًا اليوم. في سبتمبر 2024، سجل بحث جوجل عن الكلمة الرئيسية "الذكاء الاصطناعي" في 0.3 ثانية 15 مليار و900 مليون نتيجة؛ باستخدام الكلمة الرئيسية "أدوات الذكاء الاصطناعي"، تم تسجيل أكثر من 3 مليارات و400 مليون نتيجة في 0.4 ثانية. وتشير الأرقام الضخمة إلى مستوى التغطية والاهتمام بالذكاء الاصطناعي والأدوات المعتمدة على الذكاء الاصطناعي على مستوى العالم.

في الوقت الحاضر، ظهرت المزيد والمزيد من أدوات الذكاء الاصطناعي في مختلف المجالات، بما في ذلك صناعة الإعلام. بالإضافة إلى برنامج ChatGPT المعروف على نطاق واسع، هناك العديد من تطبيقات الذكاء الاصطناعي التي تم تطويرها في اتجاه متخصص، وتخدم مهام متخصصة. ليس من الصعب سرد الكثير من الأدوات هنا، على سبيل المثال: Bing AI، وClause، وZapier Central لمجموعات مهام Chatbot؛ Jasper و Copy.ai و Anyword لمهام إنشاء المحتوى؛ Descript، Wondershare، Runway لمهام إنتاج وتحرير الفيديو؛ DALL-E3، Midjourney، انتشار مستقر لمهام الصور الإبداعية؛ وقد قامت شركة أمازون العملاقة مؤخرًا بتقديم أدوات الذكاء الاصطناعي التي طورتها، وهي Video Generator وImage Generator، بهدف "إلهام الإبداع وتقديم المزيد من القيمة".

على الرغم من أن أدوات الذكاء الاصطناعي تختلف على نطاق واسع من حيث الحجم ومستوى التخصص، إلا أن التكنولوجيا تشترك بشكل أساسي في أمرين: يتم تطوير أدوات الذكاء الاصطناعي بناءً على خوارزميات وبيانات "لتدريب" أداة الذكاء الاصطناعي.

الرقابة الأخلاقية على استخدام الذكاء الاصطناعي في وسائل الإعلام

لا يمكن إنكار الراحة التي توفرها أدوات الذكاء الاصطناعي ومع الوتيرة السريعة لتحديثات التكنولوجيا، سيكون هناك المزيد والمزيد من أدوات الذكاء الاصطناعي المتخصصة في كل زاوية، والتي تستجيب للمهام من البسيطة إلى المعقدة في صناعة الإعلام. مع هذا التطور الهائل، تثار العديد من الأسئلة بشأن مسألة الرقابة الأخلاقية في تطوير واستخدام أدوات الذكاء الاصطناعي في صناعة الإعلام؟ ماذا لو تم التلاعب بخوارزمية وبيانات أداة الذكاء الاصطناعي هذه بطريقة ضارة بالمجتمع؟ من يملك حقوق الملكية الفكرية لبيانات الإدخال التي تستخدمها أداة الذكاء الاصطناعي للتدريب؟ من يقوم بتقييم مستوى الضرر الذي لحق بهم؟

هل هناك عدم مساواة بين مجموعة الأشخاص الذين يمكنهم الوصول إلى أدوات الذكاء الاصطناعي والمجموعة التي لا يمكنها الوصول إليها لنفس المهمة؟ وقد أثيرت أيضًا تساؤلات حول إمكانية حدوث ضرر غير منضبط ناجم عن أدوات الذكاء الاصطناعي، وخاصة في المجالات الحساسة التي يمكن أن تؤثر على العديد من الأشخاص على نطاق واسع، مثل وسائل الإعلام وشبكات التواصل الاجتماعي.

إدراكًا للمخاوف المذكورة أعلاه، أصدرت العديد من المنظمات والجمعيات والحكومات وحتى الشركات والمؤسسات التي تعمل على تطوير أدوات الذكاء الاصطناعي توصيات ومعلومات توضيحية وأعلى قواعد السلوك المتعلقة بقضية الرقابة الأخلاقية في تكنولوجيا الذكاء الاصطناعي. إعلان اليونسكو بشأن أخلاقيات الذكاء الاصطناعي، الذي اعتمدته 193 دولة في عام 2021، تنص التوصية على أن "الارتفاع السريع للذكاء الاصطناعي قد خلق العديد من الفرص على مستوى العالم، من مساعدة تشخيصات الرعاية الصحية إلى تمكين التواصل البشري من خلال وسائل التواصل الاجتماعي وخلق كفاءات العمل من خلال أتمتة المهام.

ولكن هذه التغيرات السريعة تثير أيضا مخاوف أخلاقية عميقة. فقد بدأت مثل هذه المخاطر المرتبطة بالذكاء الاصطناعي في تفاقم التفاوتات القائمة، مما يؤدي إلى المزيد من الضرر للمجموعات المحرومة بالفعل...". ومن هناك "نطلب من اليونسكو تطوير أدوات لدعم الدول الأعضاء، بما في ذلك منهجية تقييم الجاهزية، وهي أداة للحكومات لبناء صورة شاملة عن استعدادها لنشر الذكاء الاصطناعي بشكل أخلاقي ومسؤول لجميع مواطنيها".

وفي إطار نهجها العالمي، أطلقت اليونسكو المرصد العالمي لأخلاقيات وحوكمة الذكاء الاصطناعي، والذي تقول إنه "يوفر معلومات عن استعداد البلدان لتبني الذكاء الاصطناعي بشكل أخلاقي ومسؤول. وتستضيف المبادرة أيضًا مختبر أخلاقيات وحوكمة الذكاء الاصطناعي، الذي يجمع المساهمات والأبحاث المؤثرة ومجموعات الأدوات والممارسات النشطة عبر مجموعة واسعة من قضايا أخلاقيات الذكاء الاصطناعي..."

بالإضافة إلى المنظمات العالمية مثل اليونسكو، تعمل العديد من الجمعيات المهنية أيضًا على تطوير مدونات السلوك الخاصة بها، على سبيل المثال، أطلقت IABC - الجمعية الدولية لاتصالات الأعمال، وهي جمعية تضم آلاف الأعضاء من جميع أنحاء العالم، المبادئ التوجيهية للاستخدام الأخلاقي للذكاء الاصطناعي من قبل متخصصي الاتصالات، والتي تهدف إلى توجيه أعضاء IABC حول مدى أهمية مدونة أخلاقيات IABC للذكاء الاصطناعي. من الممكن تحديث هذه المبادئ التوجيهية واستكمالها بمرور الوقت مع تطور تكنولوجيا الذكاء الاصطناعي. في إطار مدونة قواعد السلوك هذه، هناك العديد من النقاط المحددة التي يجب على متخصص الاتصالات الالتزام بها مثل:

"يجب أن تكون موارد الذكاء الاصطناعي المستخدمة مدفوعة من قبل الإنسان لخلق تجارب إيجابية وشفافة تغرس الاحترام وتبني الثقة في مهنة الإعلام. من المهم أن تظل مطلعًا على الفرص المهنية والمخاطر التي تقدمها أدوات الذكاء الاصطناعي. من الضروري توصيل المعلومات بدقة وموضوعية وعدالة. يمكن أن تعاني أدوات الذكاء الاصطناعي من العديد من الأخطاء والتناقضات والمشكلات الفنية الأخرى. يتطلب هذا حكمًا بشريًا للتحقق بشكل مستقل من أن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي دقيق وشفاف وخالٍ من الانتحال.

حماية المعلومات الشخصية و/أو السرية للآخرين وعدم استخدام هذه المعلومات دون إذنهم. قم بتقييم مخرجات الذكاء الاصطناعي لديك بناءً على المشاركة البشرية وفهم المجتمع الذي تهدف إلى خدمته. قم بإزالة التحيز قدر استطاعتك وكن حساسًا للقيم الثقافية ومعتقدات الآخرين.

يجب عليهم التحقق شخصيًا من صحة مخرجاتهم والتأكد من صحتها بالدقة المهنية اللازمة لضمان دقة المواد أو المعلومات أو المراجع الخاصة بأطراف ثالثة، والحصول على الإسناد والتحقق اللازمين، والحصول على ترخيص كامل أو تصريح للاستخدام. لا تحاول إخفاء أو تمويه استخدام الذكاء الاصطناعي في إنتاجك المهني. الاعتراف بطبيعة المصدر المفتوح للذكاء الاصطناعي والمخاوف الأمنية المرتبطة به، بما في ذلك إدخال معلومات كاذبة أو مضللة أو خادعة...

بالنسبة للشركات والمؤسسات التي تمتلك أدوات الذكاء الاصطناعي وتطورها وتتاجر بها، فهي التي تفهم كل ما يتعلق بأدوات الذكاء الاصطناعي بشكل أفضل من أي شخص آخر. فهي تعرف الخوارزميات الأساسية التي تعمل بها أدوات الذكاء الاصطناعي والبيانات التي يتم من خلالها تدريب أدوات الذكاء الاصطناعي. ولذلك، يتعين على هذه الشركات أيضًا تقديم معلومات تتعلق بالمبادئ الأخلاقية في تطوير الذكاء الاصطناعي. في الواقع، هناك شركات مهتمة بهذه القضية.

تلتزم Google بعدم تطوير أدوات الذكاء الاصطناعي في المجالات التي يوجد فيها خطر كبير للضرر، ولن تمضي قدمًا إلا عندما نعتقد أن الفوائد تفوق المخاطر بشكل كبير وتتضمن قيود السلامة المناسبة. الأسلحة أو التقنيات الأخرى التي يكون الغرض الأساسي منها أو نشرها هو التسبب في إصابة الإنسان أو تسهيل حدوثها بشكل مباشر. إن التقنيات التي تجمع المعلومات أو تستخدمها لأغراض المراقبة تنتهك المعايير المقبولة دوليا. التقنيات التي تنتهك المبادئ المقبولة على نطاق واسع للقانون الدولي وحقوق الإنسان.

وعلى صعيد الأمن والسلامة، تتعهد جوجل بما يلي: "سنواصل تطوير وتنفيذ تدابير أمنية وسلامة قوية لتجنب النتائج غير المقصودة التي تخلق مخاطر الضرر. سنقوم بتصميم أنظمة الذكاء الاصطناعي الخاصة بنا لتكون حذرة بشكل مناسب ونسعى إلى تطويرها وفقًا لأفضل الممارسات في مجال أبحاث سلامة الذكاء الاصطناعي. سنقوم بدمج مبادئ الخصوصية لدينا في تطوير واستخدام تقنيات الذكاء الاصطناعي الخاصة بنا. سنعمل على خلق فرص للإشعار والموافقة، وتشجيع البنيات التحتية التي توفر حماية الخصوصية، وتوفير الشفافية والتحكم المناسبين في استخدام البيانات.

على غرار جوجل، أصدرت مايكروسوفت أيضًا بيانًا بشأن مبادئ الذكاء الاصطناعي ونهجها، مؤكدة: "نحن ملتزمون بضمان تطوير أنظمة الذكاء الاصطناعي بشكل مسؤول وبطريقة تضمن ثقة الناس ...". وعلاوة على ذلك، وبطريقة أو بأخرى، تعهدت شركات التكنولوجيا الكبرى التي تستثمر بكثافة في تطوير أدوات الذكاء الاصطناعي مثل أمازون وOpenAI أيضًا بالتزاماتها الخاصة.

لقد أثبتت العديد من الأمثلة في التاريخ الطبيعة المزدوجة للتكنولوجيا، مع وجود عناصر إيجابية وعناصر سلبية مصاحبة لها. بعد كل شيء، على الرغم من أنها عبارة عن منصة تكنولوجية "عالية التقنية" للغاية، إلا أن الذكاء الاصطناعي لا يزال يعتمد على الخوارزميات والبيانات التي طورها وجمعها البشر؛ وفي الوقت نفسه، تشكل معظم منتجات الذكاء الاصطناعي جزءًا من الخطط التجارية للشركات التي تمتلكها.

ومن ثم، هناك دائمًا مخاطر محتملة من الجانب الفني وكذلك من فريق تطوير المنتج وإدارته. المشكلة هنا هي النطاق الهائل المحتمل للتأثير الذي يمكن أن تحدثه أدوات الذكاء الاصطناعي على الجماهير، حتى على المستوى الاجتماعي والاقتصادي للمجتمع. إن الاهتمام في الوقت المناسب بالرقابة الأخلاقية عند استخدام تكنولوجيا الذكاء الاصطناعي هو علامة مرحب بها بمشاركة المنظمات الدولية واسعة النطاق مثل الأمم المتحدة والحكومات وجمعيات الصناعة والأهم من ذلك كله، مباشرة في وحدات تطوير التكنولوجيا.

ومع ذلك، وكما أن قائمة أدوات الذكاء الاصطناعي تطلق إصدارات جديدة باستمرار، كل منها أكثر تطوراً وتعقيداً من سابقتها، فإن المدونات أو المبادئ أو الإرشادات تحتاج أيضاً إلى التحديث والاستكمال في الوقت المناسب، وعلاوة على ذلك، تحتاج إلى أن تكون استباقية لمنع وتقييد ومراقبة وحدات تطوير المنتجات والمستخدمين ضمن إطار حيث القدرة على الامتثال للرقابة الأخلاقية في تكنولوجيا الذكاء الاصطناعي بشكل عام والعاملين في وسائل الإعلام بشكل خاص يمكن أن تحقق أعلى قدر من الكفاءة.


[إعلان رقم 2]
مصدر

تعليق (0)

No data
No data

نفس الموضوع

نفس الفئة

أطلقت إندونيسيا 7 طلقات مدفعية للترحيب بالأمين العام تو لام وزوجته.
استمتع بمشاهدة أحدث المعدات والمركبات المدرعة التي تعرضها وزارة الأمن العام في شوارع هانوي
«النفق: الشمس في الظلام» أول فيلم ثوري بدون تمويل حكومي
آلاف الأشخاص في مدينة هوشي منه ينتظرون ركوب خط المترو الأول في يوم افتتاحه.

نفس المؤلف

إرث

شكل

عمل

No videos available

أخبار

الوزارة - الفرع

محلي

منتج