По данным Reuters, Ник Клегг, президент по глобальным вопросам компании Meta, заявил, что группа будет использовать набор маркеров, интегрированных в файлы. Компания будет применять метки к любому контенту, публикуемому в ее сервисах Facebook, Instagram и Threads. Этот шаг призван дать пользователям понять, что изображения (которые могут показаться реальными фотографиями) на самом деле являются цифровыми творениями, созданными искусственным интеллектом. Компания также маркирует контент, созданный с помощью собственных инструментов искусственного интеллекта.
После запуска новой системы Meta будет делать то же самое для изображений, созданных на сервисах OpenAI, Microsoft, Adobe, Midjourney, Shutterstock и Alphabet. В объявлении содержится первая новость о новом наборе стандартов, которые разрабатывают технологические компании для снижения вреда от генеративного ИИ, который может создавать поддельный контент, используя всего лишь простой текст.
Маркировка изображений с помощью искусственного интеллекта поможет бороться с дезинформацией и мошенничеством
Подход основан на схеме, разработанной компаниями за последнее десятилетие для координации удаления запрещенного контента на платформах, например, изображений массового насилия и эксплуатации детей.
Клегг полагает, что на данном этапе компании могут надежно маркировать изображения, созданные с помощью ИИ, но при этом отмечает, что более сложные инструменты маркировки аудио- и видеоконтента все еще находятся в стадии разработки.
В ближайшем будущем Meta начнет требовать от пользователей маркировать измененный аудио- и видеоконтент и вводить штрафные санкции, если они этого не сделают. Однако Клегг заявил, что в настоящее время не существует жизнеспособного механизма маркировки текста, сгенерированного инструментами ИИ, такими как ChatGPT.
Независимый надзорный совет Meta раскритиковал политику компании в отношении вводящих в заблуждение видеороликов, заявив, что такой контент следует маркировать, а не удалять. Поэтому Клегг считает, что новый шаг Меты может помочь лучше классифицировать этот контент.
Ссылка на источник
Комментарий (0)