أصبحت تقنيات الذكاء الاصطناعي، مثل ChatGPT، ظاهرة عالمية منذ بداية عام 2023، لكنها لا تُستخدم دائمًا لأغراض إيجابية. فقد اكتشف خبير أمني مؤخرًا طريقةً لتوجيه ChatGPT لإنشاء برمجيات خبيثة أثناء الاختبار.
شارك آرون مولغرو، خبير الأمن في شركة فورس بوينت، مخاطر كتابة برمجيات خبيثة باستخدام روبوت الدردشة ثنائي اللغة من أوبن إيه آي. على الرغم من أن ChatGPT مصمم لمنع المستخدمين من طلب تصميم برمجيات خبيثة من الذكاء الاصطناعي، إلا أن آرون اكتشف ثغرة أمنية من خلال إنشاء أوامر (مطالبات) للذكاء الاصطناعي لكتابة التعليمات البرمجية سطرًا بسطر. عند دمج هذه الأوامر، أدرك آرون أنه يمتلك أداة تنفيذ لسرقة البيانات يصعب اكتشافها، وهي متطورة لدرجة أنها تنافس حتى أكثر البرمجيات الخبيثة تطورًا المتوفرة حاليًا.
كل سطر من التعليمات البرمجية التي يولدها برنامج ChatGPT، عند دمجها، يمكن أن يصبح برمجيات خبيثة متطورة.
يُعد اكتشاف مولغرو بمثابة جرس إنذار بشأن إمكانية استغلال الذكاء الاصطناعي لإنشاء برامج ضارة خطيرة دون الحاجة إلى أي مجموعات قرصنة، ودون أن يكتب المبدعون سطرًا واحدًا من التعليمات البرمجية بأنفسهم.
يتنكر برنامج مولغرو الخبيث في هيئة تطبيق سطح مكتب، ولكنه قادر على التفعيل التلقائي على أجهزة ويندوز. وبمجرد دخوله إلى نظام التشغيل، يتغلغل البرنامج الخبيث في جميع الملفات، بما في ذلك مستندات وورد، وملفات الصور، وملفات PDF، بحثًا عن البيانات لسرقتها.
بمجرد حصول البرنامج على المعلومات اللازمة، يقوم بتحليلها ودمجها في ملفات صور على جهاز الكمبيوتر. ولتجنب اكتشافها، تُرفع هذه الصور إلى مجلد على خدمة التخزين السحابي جوجل درايف. يصبح البرنامج الخبيث بالغ القوة لأن Mulgrew قادر على ضبط خصائصه وتحسينها بدقة للتهرب من الكشف من خلال أوامر بسيطة تُدخل في ChatGPT.
على الرغم من أن هذه النتيجة كانت نتيجة اختبار خاص أجراه خبير أمني، ولم تُنفذ أي هجمات خارج نطاق الاختبار، إلا أن خبراء الأمن السيبراني أقروا بخطورة الأنشطة التي تستخدم ChatGPT. وصرح مولغرو بأنه لا يملك خبرة كبيرة في البرمجة، لكن الذكاء الاصطناعي لشركة OpenAI لم يكن قويًا أو ذكيًا بما يكفي لإيقاف اختباره.
رابط المصدر






تعليق (0)