После того, как в конце 2022 года стартап OpenAI запустил свое первое приложение ИИ, ChatGPT, началась волна гонки за разработкой приложений ИИ, особенно генеративного ИИ, который приносит множество полезностей во все сферы жизни Однако это также несет в себе множество рисков.
Вторжение в личную жизнь
За последние годы многие организации и частные лица понесли убытки, когда киберпреступники использовали ИИ для создания видеороликов, подделывающих изображения и голоса реальных людей. Одним из примеров является трюк Deepfake.
По данным отчета о мошенничестве с персональными данными, опубликованного Sumsub в конце ноября 2023 года, количество случаев мошенничества с использованием Deepfake во всем мире возросло в 10 раз в 2022–2023 годах. Это также время бурного развития приложений искусственного интеллекта в мире.
Status Labs прокомментировала, что Deepfake оказал огромное влияние на культуру, конфиденциальность и личную репутацию. Большая часть новостей и внимания, связанных с Deepfakes, сосредоточена на порновидео со знаменитостями, порномести, дезинформации, фейковых новостях, шантаже и мошенничестве. Например, в 2019 году мошенник, выдававший себя за руководителей компании и попросивший сотрудников перевести деньги партнерам, выманил у энергетической компании США 243 000 долларов.
Информационное агентство Reuters сообщило, что в 2023 году в социальных сетях по всему миру было распространено около 500 000 дипфейкового контента в видео- и голосовой форме. Помимо Deepfakes ради развлечения, существуют трюки, придуманные злоумышленниками для обмана сообщества. По оценкам, в 2022 году убытки от мошенничества с использованием Deepfake по всему миру составили до 11 миллионов долларов США.
Многие эксперты в области технологий предупреждают о негативных последствиях, которые может вызвать ИИ, включая права интеллектуальной собственности и подлинность, а также споры о правах интеллектуальной собственности между «авторами». Продукты, «созданными ИИ». Например, один человек просит приложение ИИ нарисовать картинку на определенную тему, но другой человек также просит ИИ сделать то же самое, в результате чего получаются картинки с большим количеством сходств.
Это способствует возникновению споров о праве собственности. Однако на сегодняшний день в мире еще не принято решение о признании авторских прав на контент, созданный с помощью ИИ (признании авторских прав за частными лицами, которые заказывают креативный ИИ, или компаниями, которые разрабатывают приложения ИИ).
Трудно отличить настоящее от поддельного
Так может ли контент, созданный с помощью ИИ, нарушать авторские права? С точки зрения технологии, контент, генерируемый ИИ, синтезируется алгоритмами на основе данных, на которых он был обучен. Эти базы данных собираются разработчиками приложений ИИ из многих источников, в основном из баз знаний в Интернете. Многие из этих работ защищены авторским правом и принадлежат их владельцам.
27 декабря 2023 года The New York Times (США) подала в суд на OpenAI (с ChatGPT) и Microsoft, заявив, что миллионы их статей использовались для обучения ИИ-чатботов и ИИ-платформ. Эти 2 компании. Доказательствами служат факты, что чат-боты по запросу пользователей создают контент, аналогичный или идентичный содержанию статей. Эта газета не может игнорировать случаи, когда их «интеллектуальная собственность» используется компаниями в целях получения прибыли.
New York Times стала первой крупной газетой США, которая подала иск о нарушении авторских прав, связанный с ИИ. Не исключено, что в ближайшем будущем и другие газеты также подадут в суд, особенно после успеха The New York Times.
Ранее, в июле 2023 года, OpenAI заключила соглашение о лицензировании авторских прав с информационным агентством Associated Press, а в декабре 2023 года — с Axel Springer — немецким издательством, владеющим двумя газетами Politico и Business Insider.
Актриса Сара Сильверман также присоединилась к нескольким искам в июле 2023 года, обвинив Meta и OpenAI в использовании ее мемуаров в качестве обучающего текста для программ искусственного интеллекта. Многие писатели также выразили тревогу, когда выяснилось, что системы искусственного интеллекта поместили в свою базу данных десятки тысяч книг, что привело к судебным искам со стороны таких авторов, как Джонатан Франзен и Джон Гришэм.
Тем временем фотосервис Getty Images также подал в суд на компанию, занимающуюся искусственным интеллектом, за создание изображений на основе текстовых подсказок из-за несанкционированного использования защищенных авторским правом визуальных материалов компании...
Пользователи могут столкнуться с проблемами, связанными с авторскими правами, если они «небрежно» используют «произведения», которые они «составили» с помощью инструментов искусственного интеллекта. Эксперты всегда рекомендуют использовать инструменты ИИ только для поиска, сбора данных и выработки рекомендаций исключительно в справочных целях.
С другой стороны, приложения ИИ вводят пользователей в заблуждение, когда они не могут отличить правду от лжи в определенном контенте. Издатели и редакторы могут прийти в замешательство, когда дело доходит до принятия рукописей. Учителям также сложно понять, используют ли в работах учеников ИИ или нет.
Теперь сообществу придется быть более бдительными, поскольку люди не знают, какой контент настоящий, а какой — поддельный. Например, обычному человеку будет сложно определить, была ли фотография «зачарована» или отредактирована искусственным интеллектом.
Необходимо правовое регулирование использования ИИ
В ожидании прикладных инструментов, которые смогут обнаружить вмешательство ИИ, управляющим органам необходимо как можно скорее разработать четкие и конкретные правовые нормы использования этой технологии для создания личного контента. Правовые нормы должны показывать людям, что в контент и работы был внесен вклад ИИ, например, по умолчанию на изображения, измененные ИИ, накладываются водяные знаки.
Источник: https://nld.com.vn/mat-trai-cua-ung-dung-tri-tue-nhan-tao-196240227204333618.htm
Comment (0)