Deepfake — термин, созданный путем объединения слов «глубокое обучение» и «фейк». Проще говоря, это технология имитации и создания поддельной аудио-, визуальных или даже видеопродукции.
С момента бурного развития искусственного интеллекта (ИИ) проблема дипфейков стала приобретать все большую популярность, вызывая волны дезинформации, распространяемой в прессе. Поэтому проактивная аутентификация происхождения изображений и видео является актуальной задачей для ведущих мировых компаний-производителей камер.
Ожидается, что Sony, Canon и Nikon выпустят линейки цифровых камер, которые будут поддерживать цифровую подпись непосредственно на линейках беззеркальных камер (или цифровых зеркальных фотокамер), которые они производят. Внедрение цифровых подписей на камерах является чрезвычайно важной мерой, позволяющей получить доказательства происхождения и целостности изображений.
Эти цифровые подписи будут включать информацию о дате, времени, месте, фотографе и будут защищены от несанкционированного доступа. Это особенно важно для фотожурналистов и других специалистов, чья работа требует подтверждения подлинности.
Три гиганта индустрии фототехники согласовали глобальный стандарт цифровых подписей, совместимый с онлайн-инструментом проверки Verify. Инструмент, запущенный глобальной коалицией новостных организаций, технологических компаний и производителей камер, позволит бесплатно проверить подлинность любого изображения. Если изображения созданы или изменены с использованием ИИ, Verify пометит их как «Нет информации о проверке содержимого».
Важность технологий борьбы с дипфейками обусловлена быстрым ростом числа дипфейков известных личностей, таких как бывший президент США Дональд Трамп и премьер-министр Японии Фумио Кисида.
Кроме того, исследователи из Университета Цинхуа в Китае разработали новую модель генеративного искусственного интеллекта, способную генерировать около 700 000 изображений в день.
Помимо производителей камер, к борьбе с дипфейками присоединяются и другие технологические компании. Google выпустила инструмент для цифровой маркировки изображений, созданных с помощью искусственного интеллекта, а Intel разработала технологию, которая анализирует изменения оттенка кожи на фотографиях, чтобы помочь определить их подлинность. Компания Hitachi также исследует технологии для предотвращения мошенничества с использованием личных данных в Интернете.
Ожидается, что новая технология будет запущена в начале 2024 года. Sony планирует продвигать технологию в СМИ и уже провела полевые испытания в октябре 2023 года. Canon сотрудничает с Thomson Reuters и Starling Data Preservation Lab (исследовательский институт, основанный Стэнфордским университетом и Университетом Южной Калифорнии) для дальнейшего совершенствования технологии.
Производители камер надеются, что новая технология поможет восстановить доверие общественности к изображениям, которые, в свою очередь, формируют наше восприятие мира.
(по данным ОЛ)
Заплатил 5000 долларов Facebook за распространение фейкового инвестиционного мошеннического видео
Новое вредоносное ПО захватывает контроль над смартфонами, а фейковые видеоролики становятся все более изощренными
Видеоролики Deepfake становятся все более изощренными и реалистичными
Что делать, чтобы не попасться на удочку Deepfake-видеозвонков, мошеннических денежных переводов?
Глубокие фейки используются для помещения лиц жертв в порноролики
Источник
Comment (0)