أصبح الذكاء الاصطناعي (AI) الموضوع الأكبر للنقاش في صناعة التكنولوجيا منذ أن أعلنت OpenAI عن ChatGPT في نوفمبر 2022. وبعد ذلك بوقت قصير، استثمرت شركات مثل جوجل وميتا ومايكروسوفت بكثافة في جهودها الخاصة في مجال الذكاء الاصطناعي.
لا تتوانى شركات التكنولوجيا الكبرى عن الإفصاح عن طموحاتها في مجال الذكاء الاصطناعي، لكنها بدأت مؤخرًا في معالجة المخاطر التي تُشكلها هذه التقنية على أعمالها بهدوء. ففي تقريرها السنوي لعام 2023، ذكرت شركة ألفابت - الشركة الأم لغوغل - أن منتجات وخدمات الذكاء الاصطناعي تُطرح تحديات أخلاقية وتقنية وقانونية وتنظيمية قد تؤثر سلبًا على العلامات التجارية والطلب.

بحسب بلومبيرغ، أشارت شركات ميتا ومايكروسوفت وأوراكل أيضاً إلى مخاوفها بشأن الذكاء الاصطناعي في ملفاتها المقدمة إلى هيئة الأوراق المالية والبورصات الأمريكية، وغالباً ما أدرجتها ضمن قسم "عوامل الخطر". فعلى سبيل المثال، ذكرت مايكروسوفت أن خصائص توليد الذكاء الاصطناعي قد تكون عرضة لتهديدات أمنية غير متوقعة.
أكدت شركة ميتا، الشركة الأم لفيسبوك، في تقريرها السنوي لعام 2023، على وجود "مخاطر كبيرة مرتبطة بتطوير ونشر الذكاء الاصطناعي"، وأنه "لا يوجد ضمان بأن استخدام الذكاء الاصطناعي سيحسن الخدمات أو المنتجات أو يفيد العمليات التجارية". وذكرت ميتا سيناريوهات قد يضر فيها الذكاء الاصطناعي بالمستخدمين ويجعلهم عرضة للدعاوى القضائية، مثل المعلومات المضللة (كما هو الحال في الانتخابات)، والمحتوى الضار، وانتهاكات الملكية الفكرية، وانتهاكات خصوصية البيانات.
وفي الوقت نفسه، أعرب الجمهور أيضاً عن مخاوفه بشأن الذكاء الاصطناعي الذي قد يجعل بعض الوظائف عتيقة أو تختفي، أو بشأن نماذج اللغة واسعة النطاق التي يتم تدريبها على البيانات الشخصية والتي تنشر معلومات مضللة.
في الرابع من يونيو، وجّهت مجموعة من موظفي شركة OpenAI السابقين والحاليين رسالةً تحثّ شركات التكنولوجيا على بذل المزيد من الجهود للحدّ من مخاطر الذكاء الاصطناعي. وأعربوا عن مخاوفهم من أن يؤدي الذكاء الاصطناعي إلى تفاقم عدم المساواة، والتلاعب بالنظام، ونشر المعلومات المضللة، وأن أنظمة الذكاء الاصطناعي غير الخاضعة للرقابة قد تهدد بقاء البشرية.
مصدر






تعليق (0)