في الآونة الأخيرة، أصبحت الحيل عالية التقنية مثل الذكاء الاصطناعي أكثر وأكثر شعبية وتطوراً. في الآونة الأخيرة، أبلغ العديد من المستخدمين عن تعرضهم للاحتيال عبر تطبيق Messenger.
على وجه التحديد: يستخدم الأشخاص تقنية تبديل الوجوه بالذكاء الاصطناعي لارتكاب الاحتيال. وبناء على ذلك، قام المشاركون في البداية بجمع الصور ومقاطع الفيديو من خلال: البحث عن صور الفيديو من حسابات الشبكات الاجتماعية أو مصادر أخرى للضحايا لإنشاء مقاطع فيديو مزيفة. ومن ثم، يتم استخدام تقنية الذكاء الاصطناعي لمطابقة الوجوه والأصوات، وإنشاء مكالمات فيديو وهمية لخداع عمليات تحويل الأموال.
أثناء المكالمة، قدم الشخص سببًا عاجلاً مثل وقوع حادث أو دين أو الحاجة إلى دعم مالي، وطلب تحويل الأموال فورًا إلى حساب قدمه. بعد تحويل الأموال، سوف يستولي الجنرالات على تلك الأموال.
توصي إدارة أمن المعلومات الأشخاص بتوخي الحذر عند تلقي مكالمات تطلب اقتراض الأموال. أولاً، عليك التأكد من المعلومات عن طريق الاتصال بأقاربك بشكل مباشر عبر رقم الهاتف المعروف للتحقق من المعلومات. لا تتعجل في تحويل الأموال عند الطلب في مكالمة فيديو أو رسالة عبر وسائل التواصل الاجتماعي.
يجب على الأشخاص أن يكونوا حذرين عند مشاركة المعلومات على شبكات التواصل الاجتماعي، والحد من نشر الصور الشخصية ومقاطع الفيديو والمعلومات الحساسة. قم بتعديل خصوصيتك أو تقييد الوصول إلى الغرباء، وكن منتبهًا للحسابات الغريبة أو العلامات غير العادية.
إذا لاحظت علامات تشير إلى تعرض حساب جديد أو حساب صديق للاختراق، فيجب عليك إبلاغ مالك الحساب على الفور. عند مواجهة حالات بها علامات احتيال، من الضروري الإبلاغ عنها للسلطات للتعامل معها في الوقت المناسب.
[إعلان 2]
المصدر: https://kinhtedothi.vn/canh-bao-lua-dao-qua-ung-dung-messenger.html
تعليق (0)