Vietnam.vn - Nền tảng quảng bá Việt Nam

Этика работников СМИ при использовании технологий ИИ

Báo Quốc TếBáo Quốc Tế27/10/2024

Мы живем в эпоху технологической революции 4.0, где искусственный интеллект (ИИ) постепенно становится незаменимой частью многих сфер общественной жизни. Средства массовой информации, как информационный мост между общественностью и событиями, не могут быть вне этой тенденции.


Đạo đức của người làm truyền thông khi sử dụng công nghệ AI
Г-жа Нгуен Тхи Хай Ван - директор Центра подготовки журналистов Ассоциации журналистов Вьетнама на семинаре по технологиям искусственного интеллекта. (Источник: Ассоциация журналистов Вьетнама)

Чтобы максимально использовать преимущества ИИ, специалистам по коммуникации необходимо вооружиться знаниями, которые позволят им эффективно использовать ИИ, обеспечивая при этом надежность и этичность передачи информации.

От «жара» ИИ

Совершенно очевидно, что ИИ (искусственный интеллект) является одним из самых популярных ключевых слов сегодня. В сентябре 2024 года поиск в Google по ключевому слову «ИИ» за 0,3 секунды дал 15 миллиардов 900 миллионов результатов; По ключевому слову «инструменты ИИ» за 0,4 секунды было зафиксировано более 3 миллиардов 400 миллионов результатов. Огромные цифры говорят об уровне охвата и интереса к ИИ и инструментам на его основе во всем мире.

В настоящее время появляется все больше инструментов ИИ для различных сфер, в том числе и для медиаиндустрии. Помимо широко известного ChatGPT, существует множество приложений ИИ, разработанных в специализированном направлении и решающих специализированные задачи. Несложно перечислить здесь множество инструментов, например: Bing AI, Clause, Zapier Central для групп задач чат-бота; Jasper, Copy.ai, Anyword для задач по созданию контента; Descript, Wondershare, Runway для задач видеопроизводства и монтажа; DALL-E3, Midjourney, Stable Diffusion для творческих задач по обработке изображений; Murf, AIVA для задач с аудиоконтентом и т. д., а совсем недавно гигант Amazon также представил разработанные им инструменты искусственного интеллекта — Video Generator и Image Generator — с целью «вдохновить на творчество и принести больше пользы».

Хотя инструменты ИИ значительно различаются по масштабу и уровню специализации, по сути, у этой технологии есть две общие черты: инструменты ИИ разрабатываются на основе алгоритмов и данных для «обучения» инструмента ИИ.

Этический контроль использования ИИ в СМИ

Нельзя отрицать удобство, которое приносят инструменты ИИ, а с быстрым темпом обновления технологий на каждом шагу будет появляться все больше специализированных инструментов ИИ, способных решать как простые, так и сложные задачи в медиаиндустрии. Наряду с этим ошеломляющим развитием событий возникает много вопросов, касающихся проблемы этического контроля при разработке и использовании инструментов ИИ в медиаиндустрии? А что, если алгоритм и данные этого инструмента ИИ будут манипулироваться таким образом, что это нанесет вред обществу? Кому принадлежат права интеллектуальной собственности на входные данные, которые инструмент ИИ использует для обучения? Кто оценивает уровень их вреда?

Существует ли неравенство между группой людей, имеющих доступ к инструментам ИИ, и группой, не имеющей доступа к ним для выполнения одной и той же задачи? Были даже подняты вопросы о возможности неконтролируемого вреда от инструментов ИИ, особенно в чувствительных областях, которые могут оказать влияние на многих людей в больших масштабах, таких как средства массовой информации и социальные сети.

Осознавая вышеуказанные опасения, многие организации, ассоциации, правительства и даже компании и корпорации, разрабатывающие инструменты ИИ, выпустили рекомендации, пояснительную информацию и, более того, кодексы поведения, касающиеся вопроса этического контроля в области технологий ИИ. Декларация ЮНЕСКО — Организации Объединенных Наций по вопросам образования, науки и культуры об этике искусственного интеллекта, принятая 193 странами в 2021 году, гласит: «Быстрое развитие искусственного интеллекта (ИИ) создало множество возможностей во всем мире: от помощи в диагностике заболеваний в здравоохранении до обеспечения связи между людьми через социальные сети и повышения эффективности труда за счет автоматизации задач».

Однако эти быстрые изменения также вызывают серьезные этические опасения. Такие риски, связанные с ИИ, начали усугублять существующее неравенство, что приводит к дальнейшему ущербу для и без того обездоленных групп...». И оттуда «просить ЮНЕСКО разработать инструменты для поддержки государств-членов, включая Методологию оценки готовности, инструмент, позволяющий правительствам составить полную картину своей готовности к этичному и ответственному использованию ИИ для всех своих граждан.

В своем глобальном подходе ЮНЕСКО запустила Глобальную обсерваторию этики и управления ИИ, которая, по ее словам, «предоставляет информацию о готовности стран принять ИИ этично и ответственно. Она также размещает Лабораторию этики и управления ИИ, которая объединяет вклады, эффективные исследования, инструментарий и позитивную практику по широкому кругу вопросов этики ИИ…»

Помимо таких всемирных организаций, как ЮНЕСКО, многие профессиональные ассоциации также работают над разработкой собственных кодексов поведения. Например, IABC (Международная ассоциация деловых коммуникаций), объединяющая тысячи членов по всему миру, выпустила «Руководящие принципы этического использования ИИ специалистами по коммуникациям», призванные помочь членам IABC понять, насколько Кодекс этики IABC актуален для ИИ. Со временем данные рекомендации могут обновляться и дополняться по мере развития технологий ИИ. В настоящем Кодексе поведения есть много конкретных пунктов, которых должен придерживаться специалист по коммуникациям, например:

«Используемые ресурсы ИИ должны быть ориентированы на человека, чтобы создавать позитивный и прозрачный опыт, который способствует уважению и укреплению доверия к профессии СМИ. Важно быть в курсе профессиональных возможностей и рисков, которые представляют инструменты ИИ. Важно передавать информацию точно, объективно и справедливо. Инструменты ИИ могут быть подвержены множеству ошибок, несоответствий и других технических проблем. Для этого требуется человеческое суждение, чтобы независимо проверить, является ли мой контент, созданный ИИ, точным, прозрачным и плагиатным.

Защищать личную и/или конфиденциальную информацию других лиц и не использовать эту информацию без их разрешения. Оценивайте результаты работы вашего ИИ с точки зрения человеческого участия и понимания сообщества, которому вы стремитесь служить. Постарайтесь устранить предвзятость и будьте внимательны к культурным ценностям и убеждениям других.

Должны самостоятельно проверять факты и подтверждать свои собственные результаты с необходимой профессиональной строгостью, чтобы гарантировать, что сторонние материалы, информация или ссылки являются точными, имеют необходимую атрибуцию и проверку, а также полностью лицензированы или разрешены для использования. Не пытайтесь скрыть или замаскировать использование ИИ в своей профессиональной деятельности. Признать открытый исходный код ИИ и связанные с ним проблемы безопасности, включая ввод ложной, вводящей в заблуждение или обманчивой информации...

Компании и корпорации, которые владеют, разрабатывают и продают инструменты ИИ, лучше, чем кто-либо другой, разбираются во всех тонкостях инструментов ИИ. Они знают базовые алгоритмы, на которых работают инструменты ИИ, и данные, на которых обучаются инструменты ИИ. Поэтому этим компаниям также необходимо предоставлять информацию, касающуюся принципов этики в разработке ИИ. На самом деле, есть компании, которые интересуются этим вопросом.

Компания Google обязуется не разрабатывать инструменты ИИ для областей, где существует значительный риск причинения вреда, и приступит к работе только тогда, когда мы сочтем, что польза значительно перевешивает риски, и включим соответствующие ограничения по безопасности. Оружие или другие технологии, основной целью или применением которых является причинение или непосредственное содействие нанесению вреда человеку. Технологии, собирающие или использующие информацию для наблюдения, нарушают принятые на международном уровне нормы. Технологии, направленные на нарушение общепризнанных принципов международного права и прав человека.

В сфере безопасности Google обещает: «Мы продолжим разрабатывать и внедрять надежные меры безопасности, чтобы избежать непреднамеренных результатов, создающих риски причинения вреда. Мы будем проектировать наши системы ИИ с должной осторожностью и стремиться разрабатывать их в соответствии с передовыми методами исследований безопасности ИИ. Мы включим наши принципы конфиденциальности в разработку и использование наших технологий ИИ. Мы предоставим возможности для уведомления и согласия, будем поощрять архитектуры, защищающие конфиденциальность, и обеспечим соответствующую прозрачность и контроль за использованием данных».

Подобно Google, Microsoft также опубликовала заявление о своих принципах и подходах в области ИИ, подчеркнув: «Мы стремимся к тому, чтобы системы ИИ разрабатывались ответственно и таким образом, чтобы обеспечить доверие людей...». Кроме того, так или иначе, свои обязательства взяли на себя и крупные технологические компании, вкладывающие значительные средства в разработку инструментов ИИ, такие как Amazon и OpenAI.

Множество примеров в истории демонстрируют двустороннюю природу технологий, которые сочетают в себе как положительные, так и отрицательные элементы. В конце концов, даже несмотря на то, что это очень «высокотехнологичная» технологическая платформа, ИИ по-прежнему основан на алгоритмах и данных, разработанных и собранных людьми; В то же время большинство продуктов ИИ являются частью бизнес-планов компаний, которым они принадлежат.

Поэтому всегда существуют потенциальные риски как со стороны технической стороны, так и со стороны команды разработчиков и управления продуктом. Проблема здесь в потенциально огромном масштабе воздействия, которое инструменты ИИ могут оказать на массы, даже на социально-экономическом уровне сообщества. Своевременное внимание к этическому контролю при использовании технологий ИИ является позитивным знаком, в этом принимают участие крупные международные организации, такие как Организация Объединенных Наций, правительства, отраслевые ассоциации и, прежде всего, непосредственно подразделения по разработке технологий.

Однако, так же как список инструментов ИИ постоянно пополняется новыми версиями, каждая из которых становится более сложной и запутанной, чем предыдущая, Кодексы, Принципы или Руководства также должны своевременно обновляться и дополняться, и, более того, должны быть проактивными, чтобы предотвращать, ограничивать и контролировать подразделения по разработке продуктов и пользователей в рамках, где способность соблюдать этический контроль в технологиях ИИ в целом и работников СМИ в частности может достичь максимальной эффективности.



Источник

Комментарий (0)

No data
No data

Та же тема

Та же категория

Жители Хошимина с нетерпением наблюдают за тем, как вертолеты поднимают национальный флаг
Этим летом Дананг ждет вас с солнечными пляжами.
Вертолеты, обученные летать и поднимать партийный флаг и национальный флаг в небе над Хошимином
Тенденция «патриотический ребенок» распространяется в социальных сетях в преддверии праздника 30 апреля

Тот же автор

Наследство

Фигура

Бизнес

No videos available

Новости

Политическая система

Местный

Продукт