نحن نعيش في عصر الثورة التكنولوجية 4.0، حيث أصبح الذكاء الاصطناعي تدريجيا جزءا لا غنى عنه في العديد من مجالات الحياة الاجتماعية. ولا يمكن لوسائل الإعلام، باعتبارها جسراً للمعلومات بين الجمهور والأحداث، أن تكون خارج هذا الاتجاه.
السيدة نجوين ثي هاي فان - مديرة مركز تدريب الصحافة، جمعية الصحفيين الفيتناميين في ورشة عمل حول تكنولوجيا الذكاء الاصطناعي. (المصدر: جمعية الصحفيين الفيتناميين) |
وللاستفادة القصوى من المزايا التي توفرها الذكاء الاصطناعي، يتعين على العاملين في مجال الاتصالات أن يزودوا أنفسهم بالمعرفة اللازمة حتى يتمكنوا من استخدام الذكاء الاصطناعي بشكل فعال، مع ضمان الموثوقية والأخلاقيات في نقل المعلومات.
من "حرارة" الذكاء الاصطناعي
من الواضح تمامًا أن الذكاء الاصطناعي (AI) هو أحد الكلمات الرئيسية الأكثر شيوعًا اليوم. في سبتمبر 2024، سجل بحث جوجل عن الكلمة الرئيسية "الذكاء الاصطناعي" في 0.3 ثانية 15 مليار و900 مليون نتيجة؛ باستخدام الكلمة الرئيسية "أدوات الذكاء الاصطناعي"، في 0.4 ثانية، تم تسجيل أكثر من 3 مليارات و400 مليون نتيجة. وتشير الأرقام الضخمة إلى مستوى التغطية والاهتمام بالذكاء الاصطناعي والأدوات المعتمدة عليه على مستوى العالم.
في الوقت الحاضر، ظهرت المزيد والمزيد من أدوات الذكاء الاصطناعي لمختلف المجالات، بما في ذلك صناعة الإعلام. بالإضافة إلى ChatGPT المعروف على نطاق واسع، هناك العديد من تطبيقات الذكاء الاصطناعي التي تم تطويرها في اتجاه متخصص، وتخدم مهام متخصصة. ليس من الصعب إدراج الكثير من الأدوات هنا، على سبيل المثال: Bing AI، وClause، وZapier Central لمجموعات مهام Chatbot؛ Jasper وCopy.ai وAnyword لمهام إنشاء المحتوى؛ Descript، Wondershare، Runway لمهام إنتاج وتحرير الفيديو ؛ DALL-E3، Midjourney، انتشار مستقر لمهام الصور الإبداعية؛ Murf، وAIVA لمهام المحتوى الصوتي، وما إلى ذلك، ومؤخرًا، قدمت شركة أمازون العملاقة أيضًا أدوات الذكاء الاصطناعي التي طورتها، Video Generator وImage generator، بهدف "إلهام الإبداع وتقديم المزيد من القيمة".
على الرغم من أن أدوات الذكاء الاصطناعي تختلف على نطاق واسع من حيث الحجم ومستوى التخصص، إلا أن التكنولوجيا تشترك بشكل أساسي في أمرين: يتم تطوير أدوات الذكاء الاصطناعي بناءً على خوارزميات وبيانات "لتدريب" أداة الذكاء الاصطناعي.
الرقابة الأخلاقية على استخدام الذكاء الاصطناعي في وسائل الإعلام
لا يمكن إنكار التسهيلات التي توفرها أدوات الذكاء الاصطناعي، ومع الوتيرة السريعة لتحديثات التكنولوجيا، سيكون هناك المزيد والمزيد من أدوات الذكاء الاصطناعي المتخصصة في كل زاوية، والتي تستجيب للمهام من البسيطة إلى المعقدة في صناعة الإعلام. مع هذا التطور الهائل، تثار العديد من الأسئلة بشأن قضية الرقابة الأخلاقية في تطوير واستخدام أدوات الذكاء الاصطناعي في صناعة الإعلام؟ ماذا لو تم التلاعب بخوارزمية وبيانات أداة الذكاء الاصطناعي هذه بطريقة ضارة بالمجتمع؟ من يملك حقوق الملكية الفكرية لبيانات الإدخال التي تستخدمها أداة الذكاء الاصطناعي للتدريب؟ من يقوم بتقييم مستوى الضرر الذي لحق بهم؟
هل هناك عدم مساواة بين مجموعة الأشخاص الذين يمكنهم الوصول إلى أدوات الذكاء الاصطناعي والمجموعة التي لا يمكنها الوصول إليها لنفس المهمة؟ وقد أثيرت أيضًا تساؤلات حول إمكانية حدوث ضرر غير منضبط ناجم عن أدوات الذكاء الاصطناعي، وخاصة في المجالات الحساسة التي يمكن أن تؤثر على العديد من الأشخاص على نطاق واسع، مثل وسائل الإعلام وشبكات التواصل الاجتماعي.
وإدراكًا للمخاوف المذكورة أعلاه، أصدرت العديد من المنظمات والجمعيات والحكومات وحتى الشركات والمؤسسات التي تعمل على تطوير أدوات الذكاء الاصطناعي توصيات ومعلومات توضيحية ومدونات سلوك أعلى تتعلق بقضية الرقابة الأخلاقية في تكنولوجيا الذكاء الاصطناعي. إعلان اليونسكو بشأن أخلاقيات الذكاء الاصطناعي - الذي اعتمدته 193 دولة في عام 2021 - تنص التوصية على أن "الارتفاع السريع للذكاء الاصطناعي قد خلق العديد من الفرص على مستوى العالم، من مساعدة تشخيصات الرعاية الصحية إلى تمكين التواصل البشري من خلال وسائل التواصل الاجتماعي وخلق كفاءات العمل من خلال المهام الآلية.
ومع ذلك، فإن هذه التغيرات السريعة تثير أيضا مخاوف أخلاقية عميقة. وقد بدأت هذه المخاطر المرتبطة بالذكاء الاصطناعي في تفاقم أوجه عدم المساواة القائمة، مما يؤدي إلى مزيد من الضرر للفئات المحرومة بالفعل... ومن ثم "نطلب من اليونسكو تطوير أدوات لدعم الدول الأعضاء، بما في ذلك منهجية تقييم الجاهزية، وهي أداة للحكومات لبناء صورة شاملة عن استعدادها لنشر الذكاء الاصطناعي بشكل أخلاقي ومسؤول لجميع مواطنيها.
في إطار نهجها العالمي، أطلقت اليونسكو المرصد العالمي لأخلاقيات وحوكمة الذكاء الاصطناعي، الذي تقول إنه "يوفر معلومات حول مدى استعداد الدول لتبني الذكاء الاصطناعي أخلاقيًا ومسؤولًا. كما يستضيف مختبر أخلاقيات وحوكمة الذكاء الاصطناعي، الذي يجمع المساهمات والبحوث المؤثرة ومجموعات الأدوات والممارسات الإيجابية حول مجموعة واسعة من قضايا أخلاقيات الذكاء الاصطناعي..."
بالإضافة إلى المنظمات العالمية مثل اليونسكو، تعمل العديد من الجمعيات المهنية أيضًا على تطوير مدونات السلوك الخاصة بها، على سبيل المثال، أطلقت IABC - الجمعية الدولية لاتصالات الأعمال، وهي جمعية تضم آلاف الأعضاء من جميع أنحاء العالم، المبادئ التوجيهية للاستخدام الأخلاقي للذكاء الاصطناعي من قبل متخصصي الاتصالات، والتي تهدف إلى توجيه أعضاء IABC بشأن مدى أهمية مدونة أخلاقيات IABC للذكاء الاصطناعي. قد يتم تحديث هذه المبادئ التوجيهية واستكمالها بمرور الوقت مع تطور تكنولوجيا الذكاء الاصطناعي. في إطار مدونة قواعد السلوك هذه، هناك العديد من النقاط المحددة التي يجب على متخصص الاتصالات الالتزام بها مثل:
يجب أن تكون موارد الذكاء الاصطناعي المستخدمة مُدارةً بشريًا لخلق تجارب إيجابية وشفافة تُعزز الاحترام وتبني الثقة في مهنة الإعلام. من المهم البقاء على اطلاع دائم بالفرص والمخاطر المهنية التي تُمثلها أدوات الذكاء الاصطناعي. من المهم أيضًا إيصال المعلومات بدقة وموضوعية وإنصاف. قد تكون أدوات الذكاء الاصطناعي عرضة للعديد من الأخطاء والتناقضات وغيرها من المشكلات التقنية. يتطلب هذا حكمًا بشريًا للتحقق بشكل مستقل من دقة المحتوى المُنشأ بواسطة الذكاء الاصطناعي وشفافيته وخلوه من الانتحال.
حماية المعلومات الشخصية و/أو السرية للآخرين وعدم استخدام هذه المعلومات دون إذنهم. قم بتقييم مخرجات الذكاء الاصطناعي لديك بناءً على المشاركة البشرية وفهم المجتمع الذي تهدف إلى خدمته. قم بإزالة التحيز قدر استطاعتك وكن حساسًا للقيم الثقافية ومعتقدات الآخرين.
يجب عليهم التحقق شخصيًا من الحقائق والتحقق من مخرجاتهم بالدقة المهنية اللازمة لضمان دقة المواد أو المعلومات أو المراجع الخاصة بأطراف ثالثة، والحصول على الإسناد والتحقق اللازمين، والحصول على ترخيص كامل أو تصريح للاستخدام. لا تحاول إخفاء أو تمويه استخدام الذكاء الاصطناعي في إنتاجك المهني. الاعتراف بطبيعة المصدر المفتوح للذكاء الاصطناعي والمخاوف الأمنية المرتبطة به، بما في ذلك إدخال معلومات كاذبة أو مضللة أو خادعة...
بالنسبة للشركات والمؤسسات التي تمتلك وتطور وتتاجر في أدوات الذكاء الاصطناعي، فهي التي تفهم خبايا أدوات الذكاء الاصطناعي بشكل أفضل من أي شخص آخر. إنهم يعرفون الخوارزميات الأساسية التي تعمل عليها أدوات الذكاء الاصطناعي والبيانات التي يتم تدريب أدوات الذكاء الاصطناعي من خلالها. ولذلك، يتعين على هذه الشركات أيضًا تقديم معلومات تتعلق بمبادئ الأخلاقيات في تطوير الذكاء الاصطناعي. في الواقع، هناك شركات مهتمة بهذه القضية.
تلتزم Google بعدم تطوير أدوات الذكاء الاصطناعي للمجالات التي يوجد فيها خطر كبير للضرر، ولن تمضي قدمًا إلا عندما نعتقد أن الفوائد تفوق المخاطر بشكل كبير وتتضمن قيود السلامة المناسبة. الأسلحة أو التقنيات الأخرى التي يكون الغرض الأساسي منها أو نشرها هو التسبب في إصابة الإنسان أو تسهيل حدوثها بشكل مباشر. إن التقنيات التي تجمع أو تستخدم المعلومات لأغراض المراقبة تنتهك المعايير المقبولة دوليا. التقنيات التي تهدف إلى انتهاك المبادئ المقبولة على نطاق واسع للقانون الدولي وحقوق الإنسان.
فيما يتعلق بالأمن والسلامة، تتعهد جوجل بما يلي: "سنواصل تطوير وتطبيق تدابير أمنية وسلامة فعّالة لتجنب النتائج غير المقصودة التي قد تُسبب أضرارًا. سنصمم أنظمة الذكاء الاصطناعي لدينا لتكون حذرة على النحو المناسب، وسنسعى إلى تطويرها وفقًا لأفضل الممارسات في أبحاث سلامة الذكاء الاصطناعي. سندمج مبادئ الخصوصية لدينا في تطوير تقنيات الذكاء الاصطناعي واستخدامها. سنوفر فرصًا للإشعار والموافقة، ونشجع على تبني هياكل حماية الخصوصية، ونوفر شفافية وضوابط مناسبة لاستخدام البيانات".
على غرار جوجل، أصدرت مايكروسوفت أيضًا بيانًا بشأن مبادئ الذكاء الاصطناعي ونهجها، مؤكدة: "نحن ملتزمون بضمان تطوير أنظمة الذكاء الاصطناعي بشكل مسؤول وبطريقة تضمن ثقة الناس ...". وعلاوة على ذلك، بطريقة أو بأخرى، تعهدت شركات التكنولوجيا الكبرى التي تستثمر بكثافة في تطوير أدوات الذكاء الاصطناعي مثل أمازون وOpenAI أيضًا بالتزاماتها الخاصة.
لقد أثبتت العديد من الأمثلة في التاريخ الطبيعة المزدوجة للتكنولوجيا، حيث توجد عناصر إيجابية وعناصر سلبية مصاحبة لها. بعد كل شيء، على الرغم من أنها عبارة عن منصة تكنولوجية "عالية التقنية" للغاية، إلا أن الذكاء الاصطناعي لا يزال يعتمد على الخوارزميات والبيانات التي طورها وجمعها البشر؛ وفي الوقت نفسه، تشكل معظم منتجات الذكاء الاصطناعي جزءًا من الخطط التجارية للشركات التي تمتلكها.
لذلك، هناك دائمًا مخاطر محتملة من الجانب الفني وكذلك من فريق تطوير المنتج وإدارته. المشكلة هنا هي النطاق الهائل المحتمل للتأثير الذي يمكن أن تحدثه أدوات الذكاء الاصطناعي على الجماهير، حتى على المستوى الاجتماعي والاقتصادي للمجتمع. إن الاهتمام في الوقت المناسب بالرقابة الأخلاقية عند استخدام تكنولوجيا الذكاء الاصطناعي هو علامة مرحب بها بمشاركة المنظمات الدولية واسعة النطاق مثل الأمم المتحدة والحكومات وجمعيات الصناعة والأهم من ذلك كله، مباشرة في وحدات تطوير التكنولوجيا.
ومع ذلك، وكما أن قائمة أدوات الذكاء الاصطناعي تطلق إصدارات جديدة باستمرار، كل منها أكثر تطوراً وتعقيداً من سابقتها، فإن المدونات والمبادئ أو الإرشادات تحتاج أيضاً إلى التحديث والاستكمال في الوقت المناسب، وعلاوة على ذلك، تحتاج إلى أن تكون استباقية لمنع وتقييد ومراقبة وحدات تطوير المنتجات والمستخدمين ضمن إطار حيث القدرة على الامتثال للرقابة الأخلاقية في تكنولوجيا الذكاء الاصطناعي بشكل عام والعاملين في وسائل الإعلام بشكل خاص يمكن أن تحقق أعلى مستوى من الكفاءة.
[إعلان 2]
مصدر
تعليق (0)