أصدرت إدارة أمن المعلومات مؤخرا تحذيرا بشأن استمرار تكرار عمليات الاحتيال باستخدام مقاطع الفيديو والصور عالية التقنية.
وبناء على ذلك، حذرت السلطات على نطاق واسع الجمهور من حالة مجرمي الإنترنت الذين يستغلون الصور ومقاطع الفيديو العامة للأشخاص لتحريرها وتقطيعها وتهديدهم بالابتزاز بمقاطع فيديو مزيفة.
وباستخدام تقنية Deepfake التي تسمح بإعادة إنتاج صوت وصورة الشخص بدقة عالية، يمكن للمجرمين انتحال شخصيات القادة في الاجتماعات عبر الإنترنت، أو إنشاء مقاطع فيديو ومكالمات لارتكاب الاحتيال المالي.
علاوة على ذلك، تستغل عمليات الاحتيال هذه في كثير من الأحيان العوامل النفسية مثل الاستعجال أو الخوف أو القوة، مما يدفع الضحايا إلى التصرف على عجل دون التحقق بعناية من صحة الاحتيال.
لا تقتصر عمليات التزييف العميق على عمليات الاحتيال المتعلقة بالاستثمار المالي. ومن الأمثلة الأخرى عمليات الاحتيال الرومانسية، حيث يتم استخدام تقنية Deepfakes لإنشاء شخصيات خيالية تتفاعل مع الضحايا عبر مكالمات الفيديو؛ بعد اكتساب ثقة الضحية، سيطلب المحتال تحويلات مالية لتغطية حالات الطوارئ أو نفقات السفر أو القروض.
وفي ضوء الوضع المذكور أعلاه، توصي إدارة أمن المعلومات الأشخاص بالحذر من النصائح الاستثمارية التي يقدمها المشاهير على مواقع التواصل الاجتماعي؛ كن حذرًا من الرسائل النصية أو رسائل البريد الإلكتروني أو المكالمات غير المعروفة؛ راقب عن كثب تعبيرات الوجه غير الطبيعية في مقاطع الفيديو.
ويحتاج الأشخاص أيضًا إلى الحد من نشر المحتوى المتعلق بالمعلومات الشخصية على شبكات التواصل الاجتماعي لتجنب حالات سرقة الأشرار للمعلومات مثل الصور أو مقاطع الفيديو أو الأصوات؛ بالإضافة إلى ذلك، قم بضبط حسابك على خاص لحماية معلوماتك الشخصية.
وفي حديث لصحيفة داي دوان كيت، قال خبير الأمن السيبراني نجو مينه هيو، المؤسس المشارك لمشروع منع الاحتيال السيبراني في فيتنام (Chongluadao.vn)، إن استخدام تقنية Deepfake (المحاكاة العميقة) في الذكاء الاصطناعي لتزييف مكالمات الفيديو لغرض الاحتيال لا يزال معقدًا. يستغل الأشخاص هذه التقنية لزيادة مصداقية "فريستهم".
على وجه التحديد، سيقوم الأشخاص بشكل استباقي بإجراء مكالمات فيديو للضحايا من صور ومقاطع فيديو "مسروقة" سابقًا ومعالجتها تقنيًا وتشويه الصوت أو مشاكل الصورة المزيفة لكسب ثقة الضحايا.
عادةً ما تكون هذه المكالمات قصيرة جدًا، وتستغرق بضع ثوانٍ فقط، ثم يستخدم المحتال عذر عدم استقرار الشبكة، أو التواجد في الشارع، وما إلى ذلك، ليطلب من الضحية تلبية طلبات المحتال.
ويحذر الخبراء من أن استخدام الذكاء الاصطناعي في عمليات الاحتيال الإلكتروني من المرجح أن يتزايد بشكل كبير في المستقبل القريب. ولذلك، يجب على الناس أن يرفعوا يقظتهم بشكل استباقي. خاصة عند تلقي رسائل غريبة، ومكالمات فيديو، وروابط.
وبحسب تحليل هذا الخبير، فإن خوارزمية الذكاء الاصطناعي الحالية Deepfake أثناء المكالمات في الوقت الفعلي لن تكون قادرة على التعامل معها إذا اتجه المتصل إلى اليسار أو اليمين أو وقف...
أحد نقاط الضعف التي يجب على الناس أن ينتبهوا إليها عند تلقي هذه المكالمات هي أسنانهم. وبناءً على ذلك، لا تستطيع خوارزميات الذكاء الاصطناعي الحالية إعادة إنتاج أسنان الشخص الذي يتم انتحال شخصيته.
في حالة استخدام Deepfake، قد لا تحتوي صورة فم الشخص المفتوح على أسنان، وقد يكون لدى بعض الأشخاص 3 فكوك، أو حتى 4 فكوك. لذلك، فإن ميزة الأسنان هي العنصر الأكثر قابلية للتعرف عليه في المكالمة المزيفة باستخدام Deepfake.
إن “التباطؤ” وعدم الامتثال للطلب فورًا هو شرط أساسي لتجنب الوقوع في فخ الاحتيال. عند تلقي أي رسائل أو مكالمات عبر شبكات التواصل الاجتماعي، يحتاج الأشخاص إلى الاتصال بأقاربهم مباشرة للتحقق من هوية المتصل بهم على وجه التحديد في غضون فترة زمنية لا تقل عن 30 ثانية أو مقابلتهم شخصيًا.
في حالة الاشتباه في انتحال صفة أحد الأقارب على مواقع التواصل الاجتماعي بهدف الاحتيال أو الاستيلاء على الممتلكات، فمن الضروري الإبلاغ فورًا إلى أقرب وكالة شرطة للحصول على الدعم والمعالجة في الوقت المناسب.
[إعلان رقم 2]
المصدر: https://daidoanket.vn/chuyen-gia-chi-meo-nhan-biet-cuoc-goi-deepfake-lua-dao-10300910.html
تعليق (0)