Vietnam.vn - Nền tảng quảng bá Việt Nam

Касперский делится, как распознать мошенничество с дипфейками

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng20/10/2023


SGGPO 20 октября 2023 г. 19:13

Дипфейки больше не используются в развлекательных целях, а постепенно становятся инструментом мошенничества со стороны киберпреступников... и мошенничество с использованием дипфейков будет расширяться, приобретая все более разнообразные и изощренные формы.

Касперский прогнозирует, что дипфейк-мошенничество будет становиться все более разнообразным и изощренным.
Касперский прогнозирует, что дипфейк-мошенничество будет становиться все более разнообразным и изощренным.

После исследования форумов даркнета, где часто действуют киберпреступники, «Лаборатория Касперского» пришла к выводу, что существует множество преступников, использующих дипфейки в целях мошенничества, причем спрос на них значительно превышает предложение программного обеспечения для дипфейков, представленного на рынке в настоящее время.

Эксперты «Лаборатории Касперского» прогнозируют, что мошенничество с использованием дипфейков будет становиться все более разнообразным и изощренным. От предоставления высококачественного видео с имитацией другого лица и полного комплекса услуг по его производству до использования изображений знаменитостей в поддельных прямых трансляциях в социальных сетях и обещания удвоить сумму, отправленную жертвой.

Хотя преступники используют искусственный интеллект в злонамеренных целях, частные лица и предприятия по-прежнему могут использовать его для выявления дипфейков и снижения вероятности успеха мошенничества. «Лаборатория Касперского» делится решениями, которые помогут пользователям защититься от мошенничества с использованием дипфейков:

Инструменты обнаружения контента на базе ИИ: программное обеспечение для обнаружения контента на базе ИИ использует передовые алгоритмы ИИ для анализа и определения уровня манипуляции изображениями, видео- и аудиофайлами.

Контент с использованием искусственного интеллекта, помеченный водяными знаками: водяные знаки выступают в качестве идентификационных знаков на изображениях, видео и т. д., помогая авторам защищать авторские права на работы с использованием искусственного интеллекта. Однако этот инструмент может стать оружием против дипфейков, поскольку он может помочь отследить происхождение платформы, создавшей ИИ.

Происхождение контента: поскольку ИИ собирает большие объемы данных из различных источников для создания нового контента, этот подход направлен на отслеживание происхождения этого контента.

Видеоаутентификация: процесс проверки того, что видеоконтент не был изменен с момента его создания. Именно этот процесс больше всего беспокоит создателей видео.

«Дипфейк стал кошмаром для женщин и общества. Киберпреступность теперь используют искусственный интеллект (ИИ) для наложения лиц жертв на порнографические фотографии и видео, а также в пропагандистских кампаниях. Целью этих форм является манипулирование общественным мнением путем распространения ложной информации или даже нанесения ущерба репутации организации или отдельного лица. «Мы призываем общественность быть более бдительными в отношении этой угрозы», — заявила г-жа Во Дуонг Ту Дьем, региональный директор Kaspersky во Вьетнаме.



Источник

Комментарий (0)

No data
No data

Та же тема

Та же категория

36 военных и полицейских подразделений готовятся к параду
Вьетнам не только..., но и...!
Победа - Бонд во Вьетнаме: когда лучшая музыка сочетается с природными чудесами света
Истребители и 13 000 солдат впервые тренируются к празднованию 30 апреля

Тот же автор

Наследство

Фигура

Бизнес

No videos available

Новости

Политическая система

Местный

Продукт