وقال لي نهان تام، كبير مسؤولي التكنولوجيا في شركة مايكروسوفت فيتنام، إنه في سياق التطور القوي للذكاء الاصطناعي، تواجه السلامة والأمن في القطاع المصرفي والمالي العديد من المشاكل الجديدة.
تظل القطاعات المالية والمصرفية دائمًا "أهدافًا" لمجرمي الإنترنت. تزداد المخاطر والأخطار بشكل كبير عندما تطبق البنوك والشركات المالية الذكاء الاصطناعي.
لمساعدة القراء على فهم قصة السلامة والأمن بشكل أفضل في سياق تطوير الذكاء الاصطناعي، أجرى مراسل VietNamNet مؤخرًا مقابلة مع السيد Le Nhan Tam، مدير التكنولوجيا في Microsoft Vietnam.
المراسل: أولاً، هل من فضلك أخبرنا كيف تتغير صورة أمن المعلومات مع إضافة الذكاء الاصطناعي؟
السيد لي نهان تام: مع المشاركة القوية بشكل متزايد للذكاء الاصطناعي في جميع المجالات، أصبحت صورة أمن المعلومات أكثر تنوعًا من ذي قبل، والفوائد كثيرة ولكن المخاطر لا حصر لها أيضًا، والمخاطر الحالية لفقدان أمن المعلومات متنوعة للغاية.
على سبيل المثال، في الماضي، لمهاجمة باستخدام الأساليب التقليدية، كان يتعين على المتسللين أن يتمتعوا بمستوى عالٍ من المهارة حتى يتمكنوا من الهجوم. لكن اليوم، يمكن لأي شخص عادي لديه القليل من المهارة استخدام الذكاء الاصطناعي لإنشاء فيروسات، وإنشاء أدوات هجومية تعتمد على الأدوات التي يولدها الذكاء الاصطناعي. المخاطر هائلة عندما يتم استخدام الذكاء الاصطناعي لأغراض سيئة.
بالنسبة للقطاع المصرفي والمالي على وجه الخصوص، ما هي التحديات الجديدة التي يجلبها مشاركة الذكاء الاصطناعي، سيدي؟
في سياق التطور القوي للذكاء الاصطناعي، يواجه أمن المعلومات في القطاع المصرفي والمالي العديد من المشاكل الجديدة. أصبحت الهجمات الإلكترونية أكثر تطوراً وسرعة وصعوبة في الدفاع ضدها أكثر من أي وقت مضى.
تتزايد مخاطر وأخطار فقدان أمن المعلومات من حيث الحجم والسرعة ومستوى الخسارة؛ من تسريبات البيانات الحساسة، إلى الخسائر المالية، إلى الأضرار التي تلحق بالسمعة وانقطاع الأعمال.
إن العامل الرئيسي وراء هذا الارتفاع هو الاستخدام المتزايد للذكاء الاصطناعي ونماذج اللغة الكبيرة من قبل الجهات الفاعلة في مجال التهديد لتحسين البرامج الضارة والتهرب من تدابير الكشف وتحسين الهجمات مثل الهندسة الاجتماعية و"التصيد الاحتيالي".
ومن الواضح أن الذكاء الاصطناعي يفتح فرصًا هائلة، لكنه يزيد أيضًا من التحديات الأمنية. وهذا هو أيضًا السبب في أن الأمان يُعتبر أحد الركائز الأساسية الثلاثة في استراتيجية التطوير الخاصة بشركة Microsoft، إلى جانب السحابة والبيانات والذكاء الاصطناعي.
في حين أن السحابة هي الأساس للذكاء الاصطناعي، فإن البيانات هي الأساس لعمل الذكاء الاصطناعي بشكل فعال، وتضمن حلول الأمان أن الأنظمة والبيانات آمنة دائمًا.
إذن، برأيك، ما الذي ينبغي للبنوك فعله لتحسين قدرتها على حماية أنظمتها ومستخدميها؟
عند تقديم المشورة للشركاء حول كيفية الاستجابة للهجمات الإلكترونية في "عصر الذكاء الاصطناعي"، فإننا غالبًا ما نوصيهم باتباع نموذج "3P - People، Process، Platform".
حيث أن الإنسان هو العامل الحاسم. إن بناء ثقافة أمنية استباقية لدى الموظفين من خلال التدريب المستمر على ممارسات الأمن يشكل أساسًا مهمًا.
على سبيل المثال، يتعين على موظفي Microsoft التعرف على الأمن والبيانات الشخصية مرتين على الأقل في السنة. وهذا من أجل تذكيرهم وتحديث المعرفة الجديدة باستمرار، ومساعدتهم دائمًا على تطبيق مبدأ الثقة الصفرية - فلا يوجد وقت آمن تمامًا.
وتأتي بعد ذلك عملية صارمة لضمان أن تكون جميع الأنشطة تحت السيطرة. قم بتعزيز أمان الهوية من خلال تنفيذ أساليب المصادقة متعددة العوامل والمصادقة المضادة للتصيد الاحتيالي لتقليل مخاطر هجمات التصيد الاحتيالي وحماية الوصول إلى الأنظمة الحساسة.
وأخيرا تأتي التكنولوجيا - الاستثمار في المنصات والخدمات المناسبة. ستساعد حلول الأمن المدعومة بالذكاء الاصطناعي المؤسسات المالية على البقاء في الصدارة في منع واكتشاف التهديدات الجديدة، مع حماية البيانات الحساسة بشكل فعال.
شكرًا لك!
وبحسب جمعية المصارف، فإن تطبيقات الذكاء الاصطناعي تمثل اتجاهاً بارزاً لدى الشركات العالمية، بما في ذلك الشركات المصرفية والمالية؛ حوالي 85% من البنوك وضعت استراتيجية لتطبيق الذكاء الاصطناعي في بناء المنتجات والخدمات الجديدة. ومع ذلك، فإن تنفيذ الذكاء الاصطناعي في الخدمات المصرفية ليس بالأمر السهل؛ يعد أمن البيانات والخصوصية دائمًا من أهم المخاوف بالنسبة للبنوك. وفي فيتنام، بلغ عدد الهجمات الإلكترونية على القطاع المصرفي والمالي في النصف الأول من هذا العام 13.7% من إجمالي عدد الحوادث التي أبلغ عنها 230 عضواً في شبكة الاستجابة لحوادث الأمن السيبراني الوطنية. |
[إعلان رقم 2]
المصدر: https://vietnamnet.vn/xuat-hien-nhieu-bai-toan-moi-ve-bao-mat-khi-ngan-hang-ung-dung-ai-manh-me-2342586.html
تعليق (0)