SGGP 20/10/2023 19:13
لم تعد تقنية التزييف العميق تُستخدم لأغراض الترفيه، بل يتم استغلالها بشكل متزايد من قبل مجرمي الإنترنت كأداة للاحتيال... وستزداد عمليات الاحتيال باستخدام التزييف العميق في العدد وستصبح أكثر تنوعًا وتطورًا.
| تتوقع كاسبرسكي أن عمليات الاحتيال باستخدام تقنية التزييف العميق ستزداد عدداً وستصبح أكثر تنوعاً وتطوراً. |
بعد البحث في منتديات الإنترنت المظلم، حيث ينشط مجرمو الإنترنت بشكل متكرر، خلصت كاسبرسكي إلى أن العديد من المجرمين يستخدمون تقنية التزييف العميق للاحتيال، لدرجة أن الطلب يتجاوز بكثير المعروض من برامج التزييف العميق المتوفرة حاليًا في السوق.
يتوقع خبراء كاسبرسكي أن تزداد عمليات الاحتيال باستخدام تقنية التزييف العميق، وأن تصبح أكثر تنوعًا وتطورًا. وتتراوح هذه العمليات بين تقديم فيديوهات انتحال شخصية عالية الجودة ومُنتجة باحترافية، واستخدام صور المشاهير في بث مباشر مزيف على وسائل التواصل الاجتماعي، مع وعود بمضاعفة المبلغ الذي أرسله الضحايا.
على الرغم من إساءة استخدام الذكاء الاصطناعي من قبل المجرمين لأغراض خبيثة، لا يزال بإمكان الأفراد والشركات الاستفادة منه لكشف التزييف العميق وتقليل فرص نجاح عمليات الاحتيال. تقدم كاسبرسكي حلولاً للمستخدمين لحماية أنفسهم من عمليات الاحتيال باستخدام التزييف العميق:
أدوات الكشف عن المحتوى بالذكاء الاصطناعي: تستخدم برامج الكشف عن المحتوى التي يتم إنشاؤها بواسطة الذكاء الاصطناعي خوارزميات الذكاء الاصطناعي المتقدمة لتحليل وتحديد مدى تعديل ملفات الصور والفيديو والصوت.
يتم وضع علامات مائية على محتوى الذكاء الاصطناعي: تعمل العلامات المائية كعلامات تعريفية في الصور والفيديوهات وغيرها، مما يساعد المؤلفين على حماية حقوق الملكية الفكرية لأعمالهم في مجال الذكاء الاصطناعي. مع ذلك، يمكن أن تتحول هذه الأداة إلى سلاح ضد التزييف العميق، لأنها تساعد في تتبع مصدر المنصة التي أنشأت الذكاء الاصطناعي.
إمكانية تتبع المحتوى: نظرًا لأن الذكاء الاصطناعي يجمع كميات هائلة من البيانات من مصادر مختلفة لإنشاء محتوى جديد، فإن هذه الطريقة تهدف إلى تتبع أصل هذا المحتوى.
التحقق من صحة الفيديو: هي عملية التأكد من عدم تغيير محتوى الفيديو عن حالته الأصلية. وهي العملية التي تهمّ صناع الفيديو أكثر من غيرها.
"أصبحت تقنية التزييف العميق كابوساً للنساء والمجتمع. مجرمي الإنترنت." "يستغلون حاليًا الذكاء الاصطناعي لتركيب وجوه الضحايا على صور ومقاطع فيديو إباحية، فضلًا عن استخدامه في حملات دعائية. تهدف هذه الأساليب إلى التلاعب بالرأي العام من خلال نشر معلومات مضللة أو حتى تشويه سمعة المنظمات أو الأفراد. نحث الجمهور على توخي الحذر من هذا التهديد"، صرّحت بذلك السيدة فو دوونغ تو ديم، المديرة الإقليمية لشركة كاسبرسكي في فيتنام.
مصدر






تعليق (0)