owa9jl4othzdfxl13gzphyn13jiax1j7.jpg
Ожидается, что новая технология станет ключом к эффективному решению проблемы дипфейка.

Deepfake — термин, созданный путем объединения слов «глубокое обучение» и «фейк». Проще говоря, это технология имитации и создания поддельной аудио-, визуальных или даже видеопродукции.

С момента бурного развития искусственного интеллекта (ИИ) проблема дипфейков стала приобретать все большую популярность, вызывая волны дезинформации, распространяемой в прессе. Поэтому проактивная аутентификация происхождения изображений и видео является актуальной задачей для ведущих мировых компаний-производителей камер.

Ожидается, что Sony, Canon и Nikon выпустят линейки цифровых камер, которые будут поддерживать цифровую подпись непосредственно на линейках беззеркальных камер (или цифровых зеркальных фотокамер), которые они производят. Внедрение цифровых подписей на камерах является чрезвычайно важной мерой, позволяющей получить доказательства происхождения и целостности изображений.

Эти цифровые подписи будут включать информацию о дате, времени, месте, фотографе и будут защищены от несанкционированного доступа. Это особенно важно для фотожурналистов и других специалистов, чья работа требует подтверждения подлинности.

Три гиганта индустрии фототехники согласовали глобальный стандарт цифровых подписей, совместимый с онлайн-инструментом проверки Verify. Инструмент, запущенный глобальной коалицией новостных организаций, технологических компаний и производителей камер, позволит бесплатно проверить подлинность любого изображения. Если изображения созданы или изменены с использованием ИИ, Verify пометит их как «Нет информации о проверке содержимого».

Важность технологий борьбы с дипфейками обусловлена ​​быстрым ростом числа дипфейков известных личностей, таких как бывший президент США Дональд Трамп и премьер-министр Японии Фумио Кисида.

Кроме того, исследователи из Университета Цинхуа в Китае разработали новую модель генеративного искусственного интеллекта, способную генерировать около 700 000 изображений в день.

дипфейк 01.jpg
Новые технологии помогут восстановить доверие и сформировать наше восприятие мира.

Помимо производителей камер, к борьбе с дипфейками присоединяются и другие технологические компании. Google выпустила инструмент для цифровой маркировки изображений, созданных с помощью искусственного интеллекта, а Intel разработала технологию, которая анализирует изменения оттенка кожи на фотографиях, чтобы помочь определить их подлинность. Компания Hitachi также исследует технологии для предотвращения мошенничества с использованием личных данных в Интернете.

Ожидается, что новая технология будет запущена в начале 2024 года. Sony планирует продвигать технологию в СМИ и уже провела полевые испытания в октябре 2023 года. Canon сотрудничает с Thomson Reuters и Starling Data Preservation Lab (исследовательский институт, основанный Стэнфордским университетом и Университетом Южной Калифорнии) для дальнейшего совершенствования технологии.

Производители камер надеются, что новая технология поможет восстановить доверие общественности к изображениям, которые, в свою очередь, формируют наше восприятие мира.

(по данным ОЛ)

Заплатил 5000 долларов Facebook за распространение фейкового инвестиционного мошеннического видео

Заплатил 5000 долларов Facebook за распространение фейкового инвестиционного мошеннического видео

Мошенник заплатил Facebook более 5000 долларов за отправку фейкового видео 100 000 человек в Австралии. Поддельное видео интервью-программы, призывающее людей инвестировать ради огромной прибыли.
Новое вредоносное ПО захватывает контроль над смартфонами, а фейковые видеоролики становятся все более изощренными

Новое вредоносное ПО захватывает контроль над смартфонами, а фейковые видеоролики становятся все более изощренными

Новые вредоносные программы способны обходить барьеры безопасности и захватывать контроль над смартфонами; Видеоролики с дипфейками становятся все более изощренными и реалистичными.... — главные технологические новости прошлой недели.
Видеоролики Deepfake становятся все более изощренными и реалистичными

Видеоролики Deepfake становятся все более изощренными и реалистичными

В условиях постоянно развивающейся технологии появились инструменты, позволяющие создавать фейковые видеоролики, которые на 70–80 % соответствуют реальности и легко сбивают с толку при просмотре невооруженным глазом.
Что не следует делать

Что делать, чтобы не попасться на удочку Deepfake-видеозвонков, мошеннических денежных переводов?

Если вам позвонили с просьбой о срочном переводе денег, сохраняйте спокойствие и сначала проверьте информацию, так как, скорее всего, вас обманывают с помощью Deepfake-видеозвонка.
Глубокие фейки используются для помещения лиц жертв в порноролики

Глубокие фейки используются для помещения лиц жертв в порноролики

Искусственный интеллект (ИИ) и дипфейк постепенно используются киберпреступниками в вредоносных целях, превращаясь в инструменты мошенничества и даже унижения других.