أووا9jl4othzdfxl13gzphyn13jiax1j7.jpg
ومن المتوقع أن تكون التكنولوجيا الجديدة هي المفتاح لحل مشكلة التزييف العميق بشكل فعال.

Deepfake هو مصطلح تم إنشاؤه عن طريق الجمع بين "التعلم العميق" و "المزيف". ببساطة، هي تقنية محاكاة وإنشاء منتجات صوتية أو بصرية أو حتى فيديو مزيفة.

منذ التطور الهائل للذكاء الاصطناعي ، أصبحت مشكلة التزييف العميق شائعة بشكل متزايد، مما أدى إلى موجات من المعلومات المضللة المنتشرة في الصحافة. ومن ثم، فإن التحقق بشكل استباقي من أصل الصور ومقاطع الفيديو يعد قضية ملحة بالنسبة لشركات الكاميرات الرائدة في العالم.

ومن المتوقع أن تطلق شركات سوني وكانون ونيكون خطوط كاميرات رقمية تدعم التوقيعات الرقمية مباشرة على خطوط الكاميرات بدون مرآة (أو كاميرات DSLR الرقمية) التي تنتجها. إن الجهود المبذولة لتنفيذ التوقيعات الرقمية على الكاميرات هي إجراء مهم للغاية، لأنها تخلق دليلاً على أصل الصور وسلامتها.

ستتضمن هذه التوقيعات الرقمية معلومات حول التاريخ والوقت والموقع والمصور وستكون مقاومة للتلاعب. وهذا مهم بشكل خاص بالنسبة للمصورين الصحفيين وغيرهم من المهنيين الذين يتطلب عملهم المصادقة.

اتفقت ثلاث شركات عملاقة في صناعة الكاميرات على معيار عالمي للتوقيعات الرقمية متوافق مع أداة التحقق عبر الإنترنت Verify. أطلقت مجموعة عالمية من مؤسسات إخبارية وشركات تقنية ومصنعي كاميرات أداة جديدة تتيح التحقق مجانا من صحة أي صورة. إذا تم إنشاء الصور أو تعديلها باستخدام الذكاء الاصطناعي، فسوف يضع Verify علامة عليها باعتبارها "لا تحتوي على معلومات التحقق من المحتوى".

وتنبع أهمية تقنيات مكافحة التزييف العميق من الارتفاع السريع في استخدام التزييف العميق لشخصيات مشهورة مثل الرئيس الأمريكي السابق دونالد ترامب ورئيس الوزراء الياباني فوميو كيشيدا.

بالإضافة إلى ذلك، قام باحثون من جامعة تسينغهوا في الصين بتطوير نموذج ذكاء اصطناعي توليدي جديد قادر على توليد حوالي 700 ألف صورة يوميًا.

ديب فيك 01.jpg
سوف تساعد التكنولوجيا الجديدة في استعادة الثقة وتشكيل تصورنا للعالم.

بالإضافة إلى مصنعي الكاميرات، تنضم شركات تقنية أخرى أيضًا إلى المعركة ضد التزييف العميق. أطلقت شركة جوجل أداة لإضافة علامة مائية رقمية على الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي، في حين طورت شركة إنتل تقنية تقوم بتحليل تغييرات لون البشرة في الصور للمساعدة في تحديد صحتها. وتقوم شركة هيتاشي أيضًا بالبحث في التكنولوجيا لمنع الاحتيال على الهوية عبر الإنترنت.

ومن المتوقع إطلاق التقنية الجديدة في أوائل عام 2024. وتخطط سوني للترويج للتقنية في وسائل الإعلام، وأجرت بالفعل اختبارات ميدانية في أكتوبر 2023. وتتعاون شركة كانون مع شركة تومسون رويترز ومختبر ستارلينج لحفظ البيانات (معهد أبحاث أسسته جامعة ستانفورد وجامعة جنوب كاليفورنيا) لتحسين التكنولوجيا بشكل أكبر.

ويأمل مصنعو الكاميرات أن تساعد التكنولوجيا الجديدة في استعادة ثقة الجمهور في الصور، التي بدورها تشكل تصورنا للعالم.

(وفقا لـ OL)

دفع 5000 دولار لشركة فيسبوك لنشر فيديو احتيال استثماري مزيف

دفع 5000 دولار لشركة فيسبوك لنشر فيديو احتيال استثماري مزيف

دفع محتال أكثر من 5000 دولار أمريكي لشركة فيسبوك لإرسال مقطع فيديو مزيف إلى 100 ألف شخص في أستراليا. فيديو مزيف لبرنامج مقابلات ويدعو الناس للاستثمار لتحقيق أرباح ضخمة.
برامج خبيثة جديدة تسيطر على الهواتف الذكية، ومقاطع الفيديو المزيفة أصبحت أكثر تطوراً

برامج خبيثة جديدة تسيطر على الهواتف الذكية، ومقاطع الفيديو المزيفة أصبحت أكثر تطوراً

يمكن للبرمجيات الخبيثة الجديدة تجاوز الحواجز الأمنية والسيطرة على الهواتف الذكية؛ أصبحت مقاطع الفيديو المزيفة أكثر تعقيدًا وواقعية؛... كانت هذه هي أخبار التكنولوجيا البارزة في الأسبوع الماضي.
أصبحت مقاطع الفيديو المزيفة أكثر تطوراً وواقعية

أصبحت مقاطع الفيديو المزيفة أكثر تطوراً وواقعية

في سياق التكنولوجيا المتطورة بشكل متزايد، توجد أدوات تسمح بإنشاء مقاطع فيديو مزيفة بنسبة 70-80% حقيقية، ويمكن الخلط بينها بسهولة عند مشاهدتها بالعين المجردة.
ما لا يجب فعله

ماذا تفعل لتجنب الوقوع في فخ مكالمات الفيديو Deepfake التي تخدع التحويلات المالية؟

إذا تلقيت مكالمة تطلب تحويل أموال عاجلة، فابق هادئًا أولاً وتحقق من المعلومات، حيث من المرجح أن تتعرض لعملية احتيال من خلال مكالمة فيديو Deepfake.
يتم استغلال تقنية Deepfakes لوضع وجوه الضحايا في مقاطع الفيديو الإباحية

يتم استغلال تقنية Deepfakes لوضع وجوه الضحايا في مقاطع الفيديو الإباحية

يستغل مجرمو الإنترنت الذكاء الاصطناعي والتزييف العميق تدريجيًا لأغراض خبيثة، ليصبحوا أدوات للاحتيال وحتى إذلال الآخرين.