ما رأيك في اتجاه القراصنة إلى "تسليح" الذكاء الاصطناعي لتنفيذ الهجمات الإلكترونية والاحتيال؟
الدكتور نجوين توان كانج: وفقًا لمؤشر IBM X-Force Threat Intelligence Index لعام 2024، فإن منطقة آسيا والمحيط الهادئ، بما في ذلك فيتنام، هي المنطقة التي تعاني من أكبر عدد من الهجمات الإلكترونية في العالم في عام 2023. ومن بين هذه الصناعات، تعد الصناعة التحويلية هي الصناعة الأكثر تضررًا من الهجمات الإلكترونية.
لا تزال الحيلة الرئيسية للأشرار هي هجمات التصيد التي تستهدف الأشخاص الضعفاء واستغلال الثغرات الأمنية لتثبيت البرامج الضارة. علاوة على ذلك، فإن الاتجاه الناشئ في عام 2024 هو الهجمات الإلكترونية التي تستخدم الذكاء الاصطناعي.
يشير تقرير Wired إلى أن العديد من الأشرار يستخدمون الذكاء الاصطناعي التوليدي للمساعدة في توجيه عمليات الاختراق، وإنشاء روبوتات محادثة احتيالية، أو صور ومقاطع فيديو مزيفة لوجوه وأصوات أشخاص آخرين باستخدام Deepfake.
ومع ذلك، إلى جانب هذا الاتجاه، بدأت أنظمة أمن المعلومات أيضًا في دمج ميزات الذكاء الاصطناعي، مثل watsonx. يمكن استغلال الذكاء الاصطناعي، ولكن يمكنه أيضًا أن يحل محل البشر في التحليل والمراقبة وتحديد الأرقام والتنبؤ بسيناريوهات الهجوم، وبالتالي تحسين قدرات الدفاع وتقليل مخاطر أمن المعلومات.
أصبحت عمليات الاحتيال باستخدام Deepfake أكثر شيوعًا. مع التطور السريع للذكاء الاصطناعي، ما مدى خطورة هذه الهجمات في المستقبل؟
الدكتور نجوين توان كانج: في الأساس، Deepfake هي تقنية تساعد المتسللين على إنشاء هويات رقمية مزيفة، وبالتالي انتحال هوية أشخاص آخرين. ستكون تقنية Deepfake مشكلة خطيرة لأن هذه التقنية أصبحت أكثر تعقيدًا.
لمحاربة Deepfake، أول شيء يجب فعله هو تحديد ما إذا كانت صورة الشخص أو صوته تم إنشاؤها بواسطة الذكاء الاصطناعي. لا توجد حاليًا أداة عالمية يمكنها اكتشاف Deepfakes على الفور لأن المهاجمين يطورون نماذج جديدة باستمرار.
بالإضافة إلى التعرف على Deepfakes، هناك تقنية أخرى للتعامل معها، وهي استخدام التكنولوجيا لتحليل السلوك. ومن الناحية التنظيمية والتجارية، من الضروري تطوير نظام يجمع بين هاتين التقنيتين.
لقد حدثت في الآونة الأخيرة هجمات إلكترونية قام من خلالها القراصنة بزرع برمجيات خبيثة في أنظمة الشركات بشكل سري. يتربص البرنامج الخبيث ويقوم بتحليل جميع الأنشطة، وبالتالي إنشاء هوية مزيفة لتنفيذ نواياه الخبيثة. ومع تطور تقنية Deepfake، إلى جانب قدرة الذكاء الاصطناعي على إنشاء مقاطع الفيديو، فإن هذا النوع من الهجمات سوف يصبح أكثر خطورة في المستقبل.
مع تصاعد هجمات Deepfake الإلكترونية، كيف يمكننا حماية كبار السن والأطفال والفئات الضعيفة الأخرى من المحتالين؟
الدكتور نجوين توان كانج: غالبًا ما يتعرض كبار السن والأطفال للهجوم من قبل المحتالين باستخدام تقنية تسمى الهندسة الاجتماعية. هذا مصطلح يصف الهجمات من خلال التلاعب بالسلوك البشري.
يمكن للقراصنة الآن استخدام الذكاء الاصطناعي مع جمع البيانات واستخراجها وتحليلها لتحديد الأشخاص الذين من المحتمل أن يتعرضوا للاحتيال ومن ثم إيجاد طرق لمهاجمتهم. بالإضافة إلى رفع مستوى الوعي العام، يجب علينا أيضًا أن نقبل أنه ستكون هناك مواقف يتم فيها خداع المستخدمين، ويجب علينا استخدام التكنولوجيا للكشف عن ذلك ومنعه.
في الآونة الأخيرة، كانت هناك حالة حيث اشتبه موظف في أحد البنوك في أن امرأة عجوز جاءت لتحويل الأموال تحمل علامات تشير إلى تعرضها للاحتيال. ثم أوقف هذا الشخص الأمر في الوقت المناسب وأبلغ السلطات. يتعين الآن على أنظمة تكنولوجيا المعلومات الخاصة بالبنوك أن تمتلك التكنولوجيا اللازمة لتحل محل البشر في مثل هذه المهام.
إن دور التكنولوجيا هو أنه حتى لو كان الشخص الذي يحول الأموال معروفًا، فإن النظام سوف يمنع ذلك إذا اشتبه في أن هذا السلوك يتم التلاعب به من قبل شخص آخر. وتسمى هذه الأدوات بأنظمة مكافحة الاحتيال ومكافحة التزييف.
هل حان الوقت لفيتنام لفرض عقوبات لإدارة الذكاء الاصطناعي ووضع أبحاث الذكاء الاصطناعي وتطويره واستخدامه في إطار عمل؟
الدكتور نجوين توان كانج: لقد تم ذكر العقوبات المفروضة على إدارة الذكاء الاصطناعي لفترة طويلة، ومع ذلك، لا تزال هناك العديد من القضايا المثيرة للجدل. على سبيل المثال، يوجد في موقف السيارات في منطقتي نظام ذكاء اصطناعي يتعرف على لوحات الترخيص، ولكن لا تزال هناك سرقات. وبعد ذلك بدأ الجدل حول من هو المسؤول عن ذلك. من المسؤول مالك الشقة، حارس الأمن أم مطور نظام الذكاء الاصطناعي؟
منذ ذلك الحين، غيّر المبنى قواعده، موضحًا أن السكان يمكنهم اختيار استخدام تقنية التعرف على لوحات الترخيص بالذكاء الاصطناعي من أجل الراحة، ولكن يجب عليهم قبول المخاطر. من يوافقون سيتمكنون من استخدام الباب الأوتوماتيكي، أما من لا يقبلون فسيضطرون إلى ركن سياراتهم بالطريقة القديمة. يجب أن يكون لدينا مثل هذه العقوبات.
وعلى نحو مماثل، طورت شركة IBM نظام الذكاء الاصطناعي للمساعدة في الوقاية من السرطان. عندما يصف النظام الدواء ولكن لا يمكن إنقاذ المريض بعد تناوله، فهل هذا خطأ الطبيب أم خطأ الذكاء الاصطناعي؟
أعتقد أن العقوبات المفروضة على الذكاء الاصطناعي بحاجة إلى تنظيم محدد، مع تحديد ما يمكن وما لا يمكن فعله عند تطوير تطبيقات الذكاء الاصطناعي. ولجعل العالم أكثر أمانا، فإن أبسط العقوبات التي يمكننا القيام بها هي فرض التحقق من صحة البيانات الحيوية على التحويلات المالية الكبيرة. في مثل هذه الحالة، يمكن للأشخاص الذين يفقدون معلومات هويتهم تجنب خسارة الأموال تمامًا.
شكرا لك سيدي.
[إعلان رقم 2]
مصدر
تعليق (0)