في مايو 2024، تتابعت شركات التكنولوجيا العملاقة الشهيرة عالميًا لإطلاق إصدارات جديدة من الذكاء الاصطناعي، مثل OpenAI مع GPT-4o، وGoogle مع Gemini 1.5 Pro... مع العديد من الميزات "الذكية للغاية" المضافة لتحسين تجربة المستخدم. ومع ذلك، لا يمكن إنكار أن هذه التكنولوجيا يتم استخدامها من قبل مجرمي الإنترنت في العديد من سيناريوهات الاحتيال عبر الإنترنت.
زيادة المخاطر
وفي حديثه خلال مؤتمر عقد مؤخرا، أشار نائب وزير الإعلام والاتصالات فام دوك لونج إلى حقيقة مفادها أن الهجمات الإلكترونية تتزايد باستمرار مع زيادة التطور والتعقيد. وخاصة عندما يتعلق الأمر بالذكاء الاصطناعي، فإن المخاطر التي يواجهها المستخدمون تتزايد بشكل كبير. حذر نائب الوزير فام دوك لونج من أن "مجرمي الإنترنت يستخدمون تقنية الذكاء الاصطناعي لإنشاء برامج ضارة جديدة بسهولة، وهجمات تصيد جديدة ومتطورة...".
وبحسب تقرير صادر عن إدارة أمن المعلومات بوزارة المعلومات والاتصالات، فإن مخاطر الأمن السيبراني المتعلقة بالذكاء الاصطناعي تسببت في أضرار تزيد عن تريليون دولار أمريكي في جميع أنحاء العالم، منها 8000 - 10000 مليار دونج في فيتنام وحدها. الاستخدام الأكثر شيوعًا اليوم هو استخدام الذكاء الاصطناعي لتزييف الأصوات والوجوه لأغراض الاحتيال. ومن المتوقع أنه بحلول عام 2025 سيكون هناك حوالي 3000 هجوم/ثانية، و12 برنامجًا خبيثًا/ثانية، و70 ثغرة ونقطة ضعف جديدة/يومًا.
وبحسب السيد نجوين هوو جياب، مدير شركة BShield المتخصصة في دعم الأمن للتطبيقات، فإن إنشاء صور وأصوات مزيفة ليس بالأمر الصعب مع تقدم الذكاء الاصطناعي. يمكن للمحتالين بسهولة جمع بيانات المستخدم من خلال المعلومات العامة التي ينشرونها على شبكات التواصل الاجتماعي أو من خلال الحيل مثل مقابلات العمل عبر الإنترنت والمكالمات الهاتفية تحت اسم "السلطات". وفي محاكاة أجرتها شركة BShield، من خلال الوجه المتوفر عبر مكالمة فيديو، يمكن للمحتال وضعه على ورقة CCCD، ودمجه في جسم شخص متحرك لخداع أداة eKYC والتعرف عليه من قبل النظام كشخص حقيقي.
تتزايد الأساليب الاحتيالية باستخدام تقنية التزييف العميق وتصبح أكثر تعقيدًا. الصورة: LE TINH
ومن وجهة نظر المستخدم، يشعر السيد نجوين ثانه ترونج، المتخصص في تكنولوجيا المعلومات في مدينة هوشي منه، بالقلق من أن يتمكن الأشرار من الاستفادة من برنامج chatGPT لإنشاء رسائل بريد إلكتروني احتيالية ذات محتوى وأسلوب كتابة مشابه للرسائل الإلكترونية الحقيقية من البنوك أو المؤسسات ذات السمعة الطيبة. من المرجح أن تكون رسائل البريد الإلكتروني هذه مرفقة ببرامج ضارة، وإذا نقر المستخدمون عليها، فمن المؤكد أن بياناتهم ستُسرق وسيتم الاستيلاء على أصولهم. قال السيد ترونغ: "إن برامج الذكاء الاصطناعي تتحسن بشكل متزايد، ويمكنها إنشاء مقاطع فيديو مزيفة تحتوي على وجوه وأصوات تشبه الأشخاص الحقيقيين بنسبة 95%، وتتغير الإيماءات في الوقت الفعلي مما يجعل من الصعب للغاية على المشاهدين اكتشافها".
اكتمال الممر القانوني قريبا
وللحد من مخاطر الاحتيال باستخدام التكنولوجيا الفائقة، أشار خبير الأمن فام دينه ثانج إلى أن المستخدمين بحاجة إلى تحديث معلوماتهم حول الذكاء الاصطناعي بانتظام وعدم النقر على روابط ذات مصدر غير معروف. بالنسبة للشركات، يجب تخصيص الميزانية لضمان أمن البيانات وعمليات النظام. ويحتاج موظفو المؤسسة أيضًا إلى التدريب المتعمق للوصول إلى الثغرات الفعلية التي تحدث في النظام، مما يزيد من القدرة على تحديد أنواع الهجمات الإلكترونية.
قال السيد تا كونغ سون، رئيس قسم تطوير الذكاء الاصطناعي - مشروع مكافحة الاحتيال، إن الذكاء الاصطناعي قد تغلغل بعمق في حياة المستخدمين وعمليات الشركات والوكالات والوحدات بفضل ميزات الدعم الذكية للغاية. والجدير بالذكر أن تقنية الذكاء الاصطناعي أصبحت في الوقت الحالي متاحة للغاية وسهلة الاستخدام، وهو ما سيخلق الظروف للمجرمين للاستفادة منها بسهولة لأغراض احتيالية. "يقوم المحتالون أيضًا بتغيير أساليب هجومهم باستمرار، ويجب على المستخدمين تحديث المعلومات بانتظام لمعرفة كيفية منعها" - أوصى السيد سون.
وبحسب الخبراء، فقد أثبتت طرازات GPT-4o وGemini 1.5 Pro التي تمت ترقيتها مؤخرًا أن ذكاء الذكاء الاصطناعي ليس له حدود. لذلك، بالإضافة إلى تشجيع الشركات على تطوير أدوات وحلول الذكاء الاصطناعي لمكافحة الاحتيال، تحتاج وكالات الإدارة إلى استكمال الممر القانوني الخاص بالذكاء الاصطناعي قريبًا للبقاء في طليعة هذا الاتجاه.
قال المقدم نجوين آنه توان، نائب مدير المركز الوطني لبيانات السكان، إنه من الضروري إصدار وثائق تنظم أخلاقيات ومسؤوليات مقدمي الخدمات المحليين والأجانب في عملية تطوير وإنتاج وتطبيق واستخدام الذكاء الاصطناعي في القريب العاجل. وفي الوقت نفسه، هناك حاجة إلى وضع لوائح محددة بشأن المعايير الفنية للأنظمة التي تستخدم خدمات الذكاء الاصطناعي وتطبقها وتتصل بها وتقدمها. وأشار العقيد توان إلى أنه "من الضروري إجراء البحوث وتطبيق مشاريع الذكاء الاصطناعي لمكافحة مخاطر الذكاء الاصطناعي. ولأن الذكاء الاصطناعي من صنع البشر، وهو نتاج المعرفة، فسوف تكون هناك اختلافات بين "الذكاء الاصطناعي الجيد" و"الذكاء الاصطناعي السيئ"، وبالتالي من الممكن منع تطوير الذكاء الاصطناعي بالذكاء الاصطناعي نفسه".
تحديات الأمن السيبراني
واعترف المقدم نجوين آنه توان بأن الذكاء الاصطناعي يشكل تحديات للأمن السيبراني. وبناءً على ذلك، يمكن تثبيت البرامج الضارة المدعومة بالذكاء الاصطناعي في ملفات المستندات. وعندما يقوم المستخدمون بتحميل ملفات المستندات، فإن هذه البرامج الضارة تخترق النظام. علاوة على ذلك، من خلال تقنيات الذكاء الاصطناعي الخاصة، يمكن للمتسللين محاكاة الأنظمة ومهاجمة الثغرات الأمنية. يمكن للذكاء الاصطناعي إنشاء العديد من التطبيقات التي تحتوي على صور وأسماء وهمية لتطبيقات ومواقع وزارة الأمن العام ليقوم الأشخاص بتنزيلها وتثبيتها وتقديم معلومات مثل رقم بطاقة الهوية وكلمة المرور لتسجيل الدخول. وحذر المقدم نجوين آنه توان من أن "الذكاء الاصطناعي سوف يطور أيضًا برمجياته الخاصة وبرامجه الخبيثة الهجينة، مع آليات التهرب الأمني الأكثر تطورًا وتغييرات مرنة في التعليمات البرمجية المصدرية".
[إعلان رقم 2]
المصدر: https://nld.com.vn/toi-pham-mang-co-them-bi-kip-tu-ai-196240601195415035.htm
تعليق (0)