الرئيس الروسي فلاديمير بوتن. (المصدر: رويترز) |
في الخامس من يونيو/حزيران، أصدر الكرملين إعلانا عاجلا يفيد بأن مقطع فيديو للرئيس الروسي فلاديمير بوتن تم بثه على العديد من محطات الإذاعة والتلفزيون في المناطق المتاخمة لأوكرانيا كان مزيفًا بشكل عميق قام به قراصنة.
فيديو مزيف وتأثير حقيقي
وفي الخطاب، قال الرئيس الروسي فلاديمير بوتن، بصوته الذي تم إنشاؤه باستخدام تقنية التزييف العميق، إن حالة الطوارئ أعلنت في مناطق بيلغورود وفورونيج وروستوف الروسية بسبب الهجمات الوشيكة من القوات الأوكرانية. وطلب بوتن المزيف أيضًا من السكان في المناطق إخلاء منازلهم والبحث عن مأوى في عمق روسيا.
Deepfake هي تقنية تستخدم الذكاء الاصطناعي (AI) لالتقاط صورة وصوت شخص ما ولصقها في فيديو شخص آخر. تقوم تقنية Deepfake بجمع صورة وجه شخص ما، ثم استبدال هذا الوجه بوجه شخص آخر في مقطع فيديو. بالنسبة للملفات الصوتية، تستخدم تقنية التزييف العميق تسجيلًا صوتيًا لشخص حقيقي لتدريب الكمبيوتر على التحدث تمامًا مثل هذا الشخص. |
وقالت إذاعة "راديو مير" ، إحدى المحطات التي تعرضت للاختراق، إن الحادث استمر نحو 40 دقيقة. وفي هذه الأثناء، بدأت مقاطع تلفزيونية لفيديوهات مزيفة للسيد بوتن تنتشر أيضًا على وسائل التواصل الاجتماعي. ولم تعلن أي جهة أو جهة مسؤوليتها عن هذا الحادث حتى الآن.
وبعد انتشار المقطع المصور، أكد المتحدث باسم الكرملين دميتري بيسكوف أن إعلان الأحكام العرفية كان من عمل قراصنة.
وقال دميتري بيسكوف لوكالة تاس الروسية للأنباء "لا يوجد بالتأكيد (إعلان الأحكام العرفية). لقد حدثت بالفعل عمليات قرصنة في بعض المناطق. قيل لي إن هناك حادثة قرصنة على راديو مير وعلى بعض القنوات الأخرى. الآن تم القضاء على جميع المتسللين وأصبحت قنوات المعلومات تحت السيطرة مرة أخرى".
وذكرت صحيفة "كييف بوست" أن المركز الإداري لمنطقة بيلغورود وصف رسالة الفيديو بأنها عملية تزييف عميقة تهدف إلى "إثارة الخوف في نفوس سكان بيلغورود المسالمين".
شاركت هانا ليوباكوفا، الصحفية البيلاروسية والزميلة غير المقيمة في المجلس الأطلسي، مقطع فيديو تلفزيوني يظهر صورة مزيفة للسيد بوتن.
وفي تقييمه للحادث، قال عالم البيانات أرسيني كاخالين، الخبير في مجال الذكاء الاصطناعي، إن هذا الاختراق قد يكون نموذجيًا لاستخدام التزييف العميق لتسليح الصراع بين روسيا وأوكرانيا.
ولكن هذه ليست المرة الأولى التي يتم فيها استخدام تقنية Deepfake في هذا الصراع. خلال الأسابيع الأولى من العملية العسكرية الخاصة التي نفذتها روسيا في فبراير/شباط 2022، تم إصدار مقطع فيديو مزيف للرئيس الأوكراني فولوديمير زيلينسكي. وفي مقطع الفيديو المزيف، يبدو أن زيلينسكي يحث جنوده على إلقاء أسلحتهم والاستسلام. تم حذف الفيديو بسرعة، لكنه انتشر بالفعل على وسائل التواصل الاجتماعي.
في الدعاية، تتمتع تقنية التزييف العميق بتأثير عسكري أو سياسي مقنع، فهي سلاح يمكن أن يكون له تأثير كبير. (المصدر: socialmediasafety) |
السلاح الجديد الشعبي
وقال العقيد فيليب إنغرام، ضابط الاستخبارات العسكرية البريطانية السابق وصانع السياسات في منظمة حلف شمال الأطلسي (الناتو)، لموقع بوليتيكو أوروبا إن تقليد بوتن من خلال المنشورات المزيفة التي يُزعم أنها تم إنشاؤها من بيانات حقيقية يشكل خطرًا متزايدًا في عالم متأثر بالذكاء الاصطناعي.
وبحسب هذا الشخص، فإن تقنية التزييف العميق في الدعاية تجلب تأثيرات عسكرية أو سياسية مقنعة، وهو سلاح يمكن أن يكون له تأثير كبير.
وأضاف الكولونيل فيليب إنغرام "أعتقد أن هذا سلاح جديد يتم إنتاجه بكميات كبيرة". واستشهد بصورة مزيفة لقصف البنتاغون انتشرت على تويتر قبل بضعة أسابيع، مما تسبب في هبوط سوق الأسهم بمقدار 500 مليار دولار قبل أن تتعافى.
حذر البروفيسور هاني فريد من جامعة كاليفورنيا في بيركلي (الولايات المتحدة)، الخبير في وسائل الإعلام الرقمية، الناس من عدم الاندهاش بمثل هذه الأمور في السياق الحالي عندما يقوم الناس ببناء ونشر أدوات للتلاعب بالواقع جنبًا إلى جنب مع قنوات الإعلام مثل التلفزيون والراديو والإنترنت... يمكن أن تؤثر على الفور بمليارات الدولارات. سوف يقوم العديد من الجهات الفاعلة ذات الأغراض المختلفة بإساءة استخدام هذه التقنيات.
وأكد البروفيسور هاني فريد أن "هذا صحيح بشكل خاص عندما لم تسع الهيئات التنظيمية لدينا إلى توفير الحماية الكافية لقطاع التكنولوجيا، بينما تواصل وادي السيليكون النمو السريع وتعطيل الأمور".
[إعلان رقم 2]
مصدر
تعليق (0)