في منشور على مدونته في 30 أغسطس، قال مركز الأمن السيبراني في المملكة المتحدة (NCSC) إن الخبراء ما زالوا لا يفهمون تمامًا مشكلات الأمن السيبراني المحتملة المرتبطة بالخوارزميات التي يمكنها إنشاء تفاعلات "شبيهة بالإنسان"، والتي تسمى نماذج اللغة الكبيرة (LLMs).
وحذر المركز الوطني للأمن الإلكتروني من أن هذا الأمر قد يشكل مخاطر، خاصة عندما يتم دمج مثل هذه النماذج في العمليات التجارية للمؤسسة. كما عمل العلماء والباحثون مؤخرًا على إيجاد طرق مستمرة "لخداع" الذكاء الاصطناعي، من خلال إعطائه أوامر خادعة أو اختراق حواجز الحماية المدمجة.
ويتم استخدام أدوات الذكاء الاصطناعي التوليدي كروبوتات محادثة، ومن المتوقع أن تحل محل ليس فقط عمليات البحث على الإنترنت ولكن أيضًا خدمة العملاء ومكالمات المبيعات. |
على سبيل المثال، يمكن خداع روبوت المحادثة الذي يعمل بالذكاء الاصطناعي والموجود في أحد البنوك لإجراء معاملات غير مصرح بها إذا قام المتسللون بإعداد "التعليمات" الصحيحة.
لذا، عند الإشارة إلى إصدارات بيتا الأخيرة للذكاء الاصطناعي، يحذر المركز الوطني للأمن السيبراني من أن "المنظمات التي تبني خدمات حول برامج الماجستير في القانون تحتاج إلى توخي الحذر كما هو الحال عند استخدام منتج جديد في مراحله المبكرة. اختبار بيتا".
توصل استطلاع رأي حديث أجرته رويترز/إبسوس إلى أن العديد من موظفي الشركات يستخدمون أدوات مثل ChatGPT لأداء مهام أساسية مثل صياغة رسائل البريد الإلكتروني أو تلخيص المستندات أو جمع بيانات البحث.
ومن بين هؤلاء، قال حوالي 10% فقط من الموظفين إن رؤساءهم منعوا صراحةً استخدام أدوات الذكاء الاصطناعي الخارجية، ولم يعرف 25% ما إذا كانت الشركة تسمح باستخدام هذه التكنولوجيا أم لا.
وقال أوسيلوكا أوبيورا، كبير مسؤولي التكنولوجيا في شركة الأمن RiverSafe، إن السباق نحو دمج الذكاء الاصطناعي في العمليات التجارية سيكون له "عواقب كارثية" إذا لم يقم قادة الأعمال بإجراء الفحوصات اللازمة. "بدلاً من ملاحقة اتجاه الذكاء الاصطناعي، ينبغي على القادة التفكير بعناية وإجراء تقييم للفوائد وكذلك المخاطر والتدابير الأمنية اللازمة لحماية الأعمال."
الأخبار الكاذبة والقراصنة
وتتطلع السلطات في جميع أنحاء العالم أيضًا إلى تنظيم انتشار برامج الماجستير في القانون، مثل ChatGPT من OpenAI. وتُعتبر المخاوف بشأن أمن التكنولوجيا الجديدة محوراً للسياسات، حيث اكتشفت الولايات المتحدة وكندا مؤخراً العديد من حالات قيام القراصنة باستغلال الذكاء الاصطناعي بشكل متزايد لتنفيذ أعمال غير قانونية.
وقال أحد القراصنة إنه عثر على طالب ماجستير في القانون "تم تدريبه" باستخدام مستندات خبيثة وحاول أن يطلب منه بناء عملية احتيال لتحويل الأموال. واستجاب الذكاء الاصطناعي من خلال إنشاء بريد إلكتروني يطلب من المتلقي دفع فاتورة عاجلة.
في يوليو 2023، لاحظ مركز الأمن السيبراني الكندي زيادة في استخدام الذكاء الاصطناعي في "الاحتيال عبر البريد الإلكتروني والبرامج الضارة والتضليل والتحريف". ويؤكد مدير المركز سامي خوري أن مجرمي الإنترنت يستغلون هذه التكنولوجيا الجديدة بشكل نشط.
وأضاف هذا القائد أيضًا أنه على الرغم من أن استخدام الذكاء الاصطناعي في تأليف البرامج الضارة لا يزال في مراحله المبكرة فقط، فإن نماذج الذكاء الاصطناعي تتطور بسرعة كبيرة، مما سيؤدي بسهولة إلى النقطة التي يصبح من المستحيل فيها التحكم في مخاطرها الخبيثة.
وفي وقت سابق، في مارس 2023، أصدرت منظمة الشرطة الأوروبية يوروبول أيضًا تقريرًا يقول إن ChatGPT يمكنه "انتحال هوية المنظمات والأفراد بطريقة واقعية للغاية حتى عند استخدام اللغة الإنجليزية الأساسية فقط". وفي الشهر نفسه، أكد المركز الوطني للأمن السيبراني في المملكة المتحدة أن "برنامج LLM يمكن استخدامه لدعم الهجمات السيبرانية".
[إعلان رقم 2]
مصدر
تعليق (0)