لقد أصبح الذكاء الاصطناعي (AI) هو الموضوع الأكثر مناقشة في صناعة التكنولوجيا منذ أن أعلنت OpenAI عن ChatGPT في نوفمبر 2022. وبعد فترة وجيزة، استثمرت شركات مثل Google وMeta وMicrosoft... أيضًا بشكل كبير في جهود الذكاء الاصطناعي الخاصة بها.
لا تخجل شركات التكنولوجيا الكبرى من طموحاتها في مجال الذكاء الاصطناعي، لكنها في الآونة الأخيرة كانت تعالج بهدوء مخاطر التكنولوجيا على أعمالها. وفي تقريرها السنوي لعام 2023، قالت شركة ألفابت - الشركة الأم لجوجل - إن منتجات وخدمات الذكاء الاصطناعي تشكل تحديات أخلاقية وتكنولوجية وقانونية وتنظيمية... وهو ما قد يؤثر سلبًا على العلامات التجارية والطلب.

وبحسب بلومبرج، أعربت شركات ميتا ومايكروسوفت وأوراكل أيضًا عن مخاوف بشأن الذكاء الاصطناعي في ملفاتها المقدمة إلى هيئة الأوراق المالية والبورصات الأمريكية (SEC)، غالبًا تحت قسم "عوامل الخطر". على سبيل المثال، تشير مايكروسوفت إلى أن ميزات الذكاء الاصطناعي التوليدي قد تكون عرضة لتهديدات أمنية غير متوقعة.
وفي التقرير السنوي لشركة ميتا لعام 2023، أكدت الشركة الأم لفيسبوك أن "هناك مخاطر كبيرة مرتبطة بتطوير ونشر الذكاء الاصطناعي"، وأنه "لا يمكن ضمان أن استخدام الذكاء الاصطناعي سيحسن الخدمات أو المنتجات أو يفيد العمليات التجارية". تسرد Meta سيناريوهات الذكاء الاصطناعي التي قد تضر المستخدمين وتعرضهم للمقاضاة، مثل المعلومات المضللة (كما هو الحال في الانتخابات)، والمحتوى الضار، وانتهاك الملكية الفكرية، وخصوصية البيانات.
وفي الوقت نفسه، أعرب الجمهور أيضًا عن قلقه بشأن الذكاء الاصطناعي الذي قد يجعل بعض الوظائف قديمة أو تختفي، أو نماذج اللغة الكبيرة المدربة على البيانات الشخصية التي تنشر معلومات مضللة.
في الرابع من يونيو، أرسلت مجموعة من الموظفين السابقين والحاليين في OpenAI "خطاب نوايا" تطلب من شركات التكنولوجيا بذل المزيد من الجهود لتقليل مخاطر الذكاء الاصطناعي. إنهم يخشون أن يؤدي الذكاء الاصطناعي إلى زيادة عدم المساواة والتلاعب والمعلومات المضللة، وأن أنظمة الذكاء الاصطناعي الآلية الخارجة عن السيطرة تهدد بقاء البشرية.
مصدر
تعليق (0)