أصدرت إدارة أمن المعلومات مؤخرًا تحذيرًا بشأن استمرار تكرار عمليات الاحتيال باستخدام مقاطع الفيديو والصور عالية التقنية.
وبناء على ذلك، حذرت السلطات العامة على نطاق واسع من قيام مجرمي الإنترنت باستغلال الصور ومقاطع الفيديو العامة للأشخاص لتحريرها وتقطيعها وتهديدهم بالابتزاز بمقاطع فيديو مزيفة.
وباستخدام تقنية Deepfake التي تسمح بإعادة إنتاج صوت وصورة الشخص بدقة عالية، يمكن للمجرمين انتحال شخصية القادة في الاجتماعات عبر الإنترنت، أو إنشاء مقاطع فيديو ومكالمات لارتكاب الاحتيال المالي.
علاوة على ذلك، تستغل عمليات الاحتيال هذه في كثير من الأحيان العوامل النفسية مثل الإلحاح أو الخوف أو القوة، مما يدفع الضحايا إلى التصرف على عجل دون التحقق بعناية من صحة الأمر.
لا تقتصر عمليات التزييف العميق على عمليات الاحتيال في الاستثمار المالي. ومن الأمثلة الأخرى عمليات الاحتيال الرومانسية، حيث يتم استخدام تقنيات Deepfakes لإنشاء شخصيات خيالية تتفاعل مع الضحايا عبر مكالمات الفيديو؛ بعد كسب ثقة الضحية، سيطلب المحتال تحويلات مالية لتغطية حالات الطوارئ، أو نفقات السفر، أو القروض.
وفي ضوء الوضع المذكور أعلاه، توصي إدارة أمن المعلومات بأن يكون الناس حذرين من النصائح الاستثمارية التي يقدمها المشاهير على مواقع التواصل الاجتماعي؛ كن حذرًا من الرسائل النصية أو رسائل البريد الإلكتروني أو المكالمات غير المعروفة؛ راقب عن كثب تعبيرات الوجه غير الطبيعية في مقاطع الفيديو.
ويحتاج الأشخاص أيضًا إلى الحد من نشر المحتوى المتعلق بالمعلومات الشخصية على شبكات التواصل الاجتماعي لتجنب حالات سرقة الأشرار للمعلومات مثل الصور أو مقاطع الفيديو أو الأصوات؛ بالإضافة إلى ذلك، قم بتعيين حسابك على خاص لحماية معلوماتك الشخصية.
وفي حديثه لصحيفة داي دوان كيت، قال خبير الأمن السيبراني نجو مينه هيو، المؤسس المشارك لمشروع منع الاحتيال السيبراني في فيتنام (Chongluadao.vn)، إن استخدام تقنية Deepfake (المحاكاة العميقة) في الذكاء الاصطناعي لتزييف مكالمات الفيديو لغرض الاحتيال لا يزال معقدًا. يستغل الأشخاص هذه التقنية لزيادة مصداقية "فرائسهم".
على وجه التحديد، سيقوم الأشخاص بشكل استباقي بإجراء مكالمات فيديو مع الضحايا من صور ومقاطع فيديو "مسروقة" سابقًا ومعالجتها تقنيًا وتشويه الصوت أو مشاكل الصورة المزيفة لكسب ثقة الضحايا.
عادةً ما تكون هذه المكالمات قصيرة جدًا، وتستغرق بضع ثوانٍ فقط، ثم يستخدم المحتال عذر عدم استقرار الشبكة، أو التواجد في الشارع، وما إلى ذلك ليطلب من الضحية تلبية طلبات المحتال.
ويحذر الخبراء من أن استخدام الذكاء الاصطناعي في عمليات الاحتيال الإلكتروني من المرجح أن يتزايد بشكل كبير في المستقبل القريب. ولذلك، يجب على الناس أن يرفعوا مستوى يقظتهم بشكل استباقي. خاصة عند تلقي رسائل غريبة، أو مكالمات فيديو، أو روابط.
وبحسب تحليل هذا الخبير، فإن خوارزمية الذكاء الاصطناعي الحالية Deepfake أثناء المكالمات في الوقت الفعلي لن تكون قادرة على التعامل معها إذا انعطف المتصل إلى اليسار أو اليمين أو وقف...
أحد نقاط الضعف التي يجب على الأشخاص الانتباه إليها عند تلقي هذه المكالمات هي أسنانهم. وبناءً على ذلك، لا تستطيع خوارزميات الذكاء الاصطناعي الحالية إعادة إنتاج أسنان الشخص الذي يتم انتحال شخصيته.
في حالة استخدام Deepfake، قد لا تحتوي صورة فم الشخص المفتوح على أسنان، وقد يكون لدى بعض الأشخاص 3 فكوك، أو حتى 4 فكوك. لذلك، فإن ميزة الأسنان هي العنصر الأكثر قابلية للتعرف عليه في المكالمة المزيفة باستخدام Deepfake.
إن "التباطؤ" وعدم الاستجابة للطلب فورًا هو شرط أساسي لتجنب الوقوع في فخ الاحتيال. عند تلقي أي رسائل أو مكالمات عبر شبكات التواصل الاجتماعي، يحتاج الأشخاص إلى الاتصال بأقاربهم مباشرة للتحقق من هوية المتصل بهم على وجه التحديد في غضون 30 ثانية على الأقل أو مقابلتهم شخصيًا.
في حالة الاشتباه في انتحال شخصية أحد الأقارب على مواقع التواصل الاجتماعي بهدف الاحتيال أو الاستيلاء على الممتلكات، فمن الضروري الإبلاغ فورًا إلى أقرب وكالة شرطة للحصول على الدعم والمعالجة في الوقت المناسب.
[إعلان 2]
المصدر: https://daidoanket.vn/chuyen-gia-chi-meo-nhan-biet-cuoc-goi-deepfake-lua-dao-10300910.html
تعليق (0)