Мы живем в эпоху технологической революции 4.0, где искусственный интеллект (ИИ) постепенно становится незаменимой частью многих сфер общественной жизни. Средства массовой информации, как информационный мост между общественностью и событиями, не могут быть вне этой тенденции.
Г-жа Нгуен Тхи Хай Ван - директор Центра подготовки журналистов Ассоциации журналистов Вьетнама на семинаре по технологиям искусственного интеллекта. (Источник: Ассоциация журналистов Вьетнама) |
Чтобы максимально эффективно использовать преимущества ИИ, специалистам по коммуникации необходимо вооружиться знаниями, которые позволят эффективно использовать ИИ, обеспечивая при этом надежность и этичность передачи информации.
От «жара» ИИ
Совершенно очевидно, что ИИ (искусственный интеллект) является одним из самых популярных ключевых слов сегодня. В сентябре 2024 года поиск в Google по ключевому слову «ИИ» за 0,3 секунды дал 15 миллиардов 900 миллионов результатов; По ключевому слову «инструменты ИИ» за 0,4 секунды было зафиксировано более 3 миллиардов 400 миллионов результатов. Огромные цифры говорят об уровне охвата и интереса к ИИ и инструментам на его основе во всем мире.
В настоящее время появляется все больше инструментов ИИ для различных сфер, в том числе и для медиаиндустрии. Помимо широко известного ChatGPT, существует множество приложений ИИ, разработанных в специализированном направлении и решающих специализированные задачи. Несложно перечислить здесь множество инструментов, например: Bing AI, Clause, Zapier Central для групп задач чат-бота; Jasper, Copy.ai, Anyword для задач по созданию контента; Descript, Wondershare, Runway для задач видеопроизводства и монтажа; DALL-E3, Midjourney, Stable Diffusion для творческих задач по обработке изображений; Murf, AIVA для задач с аудиоконтентом и т. д., а недавно гигант Amazon также представил разработанные им инструменты искусственного интеллекта — Video Generator и Image Generator — с целью «вдохновить на творчество и принести больше пользы».
Хотя инструменты ИИ значительно различаются по масштабу и уровню специализации, по сути, у этой технологии есть две общие черты: инструменты ИИ разрабатываются на основе алгоритмов и данных для «обучения» инструмента ИИ.
Этический контроль использования ИИ в СМИ
Нельзя отрицать удобство, которое приносят инструменты ИИ, а с быстрым темпом обновления технологий на каждом шагу будет появляться все больше специализированных инструментов ИИ, способных решать как простые, так и сложные задачи в медиаиндустрии. Наряду с этим ошеломляющим развитием событий возникает много вопросов, касающихся проблемы этического контроля при разработке и использовании инструментов ИИ в медиаиндустрии? А что, если алгоритм и данные этого инструмента ИИ будут манипулироваться таким образом, что это нанесет вред обществу? Кому принадлежат права интеллектуальной собственности на входные данные, которые инструмент ИИ использует для обучения? Кто оценивает уровень их вреда?
Существует ли неравенство между группой людей, имеющих доступ к инструментам ИИ, и группой, не имеющей доступа к ним для выполнения одной и той же задачи? Были даже подняты вопросы о возможности неконтролируемого вреда от инструментов ИИ, особенно в чувствительных областях, которые могут оказать влияние на многих людей в больших масштабах, таких как средства массовой информации и социальные сети.
Осознавая вышеуказанные опасения, многие организации, ассоциации, правительства и даже компании и корпорации, разрабатывающие инструменты ИИ, выпустили рекомендации, пояснительную информацию и, более того, кодексы поведения, касающиеся вопроса этического контроля в области технологий ИИ. Декларация ЮНЕСКО — Организации Объединенных Наций по вопросам образования, науки и культуры об этике искусственного интеллекта, принятая 193 странами в 2021 году, гласит: «Быстрое развитие искусственного интеллекта (ИИ) создало множество возможностей во всем мире: от помощи в диагностике заболеваний в здравоохранении до обеспечения связи между людьми через социальные сети и повышения эффективности труда за счет автоматизации задач».
Однако эти быстрые изменения также вызывают глубокие этические проблемы. Такие риски, связанные с ИИ, начали усугублять существующее неравенство, что приводит к дальнейшему вреду для и без того обездоленных групп…». И оттуда «просить ЮНЕСКО разработать инструменты для поддержки государств-членов, включая Методологию оценки готовности, инструмент, позволяющий правительствам составить полную картину своей готовности к этичному и ответственному использованию ИИ в интересах всех своих граждан».
В рамках своего глобального подхода ЮНЕСКО создала Глобальную обсерваторию по этике и управлению ИИ, которая, по ее словам, «предоставляет информацию о готовности стран к этичному и ответственному внедрению ИИ». В рамках инициативы также действует Лаборатория этики и управления ИИ, которая объединяет вклады, эффективные исследования, инструментарий и активную практику по широкому кругу вопросов этики ИИ…»
Помимо таких всемирных организаций, как ЮНЕСКО, многие профессиональные ассоциации также работают над разработкой собственных кодексов поведения. Например, IABC (Международная ассоциация деловых коммуникаций), объединяющая тысячи членов по всему миру, выпустила «Руководящие принципы этического использования ИИ специалистами по коммуникациям», призванные помочь членам IABC понять, насколько Кодекс этики IABC актуален для ИИ. Со временем данные рекомендации могут обновляться и дополняться по мере развития технологий ИИ. В настоящем Кодексе поведения есть много конкретных пунктов, которых должен придерживаться специалист по коммуникациям, например:
«Используемые ресурсы ИИ должны управляться человеком, чтобы создавать позитивный и прозрачный опыт, который внушает уважение и укрепляет доверие к профессии СМИ. Важно быть в курсе карьерных возможностей и рисков, которые несут в себе инструменты ИИ. Необходимо передавать информацию точно, объективно и справедливо. Инструменты ИИ могут страдать от множества ошибок, несоответствий и других технических проблем. Для этого требуется человеческое суждение, чтобы независимо подтвердить, что мой контент, созданный ИИ, является точным, прозрачным и свободным от плагиата.
Защищать личную и/или конфиденциальную информацию других лиц и не использовать эту информацию без их разрешения. Оценивайте результаты работы вашего ИИ с точки зрения человеческого участия и понимания сообщества, которому вы стремитесь служить. Постарайтесь устранить предвзятость и будьте внимательны к культурным ценностям и убеждениям других.
Должны самостоятельно проверять факты и подтверждать свои собственные результаты с необходимой профессиональной строгостью, чтобы гарантировать, что сторонние материалы, информация или ссылки являются точными, имеют необходимую атрибуцию и проверку, а также полностью лицензированы или разрешены для использования. Не пытайтесь скрыть или замаскировать использование ИИ в своей профессиональной деятельности. Признать открытый исходный код ИИ и связанные с ним проблемы безопасности, включая ввод ложной, вводящей в заблуждение или обманчивой информации...
Для компаний и корпораций, которые владеют, разрабатывают и торгуют инструментами ИИ, они те, кто понимает все тонкости инструментов ИИ лучше, чем кто-либо другой. Они знают базовые алгоритмы, на которых работают инструменты ИИ, и данные, на которых обучаются инструменты ИИ. Поэтому этим компаниям также необходимо предоставлять информацию, касающуюся принципов этики в разработке ИИ. На самом деле, есть компании, которые интересуются этим вопросом.
Компания Google обязуется не разрабатывать инструменты ИИ для областей, где существует значительный риск причинения вреда, и приступит к работе только тогда, когда мы сочтем, что преимущества значительно перевешивают риски, и включим соответствующие ограничения по безопасности. Оружие или другие технологии, основной целью или применением которых является причинение или непосредственное содействие нанесению вреда человеку. Технологии, собирающие или использующие информацию для наблюдения, нарушают принятые на международном уровне нормы. Технологии, направленные на нарушение общепризнанных принципов международного права и прав человека.
В отношении безопасности Google обещает: «Мы продолжим разрабатывать и внедрять надежные меры безопасности, чтобы избежать непреднамеренных последствий, которые могут привести к возникновению рисков причинения вреда. Мы будем проектировать наши системы ИИ так, чтобы они были достаточно осторожными, и стремиться разрабатывать их в соответствии с передовыми методами исследований безопасности ИИ. Мы включим наши принципы конфиденциальности в разработку и использование наших технологий искусственного интеллекта. Мы создадим возможности для уведомления и согласия, будем поощрять архитектуры, которые защищают конфиденциальность, и обеспечивать надлежащую прозрачность и контроль за использованием данных».
Подобно Google, Microsoft также опубликовала заявление о своих принципах и подходах к ИИ, подчеркнув: «Мы стремимся к тому, чтобы системы ИИ разрабатывались ответственно и таким образом, чтобы обеспечить доверие людей...». Кроме того, так или иначе, свои обязательства взяли на себя и крупные технологические компании, вкладывающие значительные средства в разработку инструментов ИИ, такие как Amazon и OpenAI.
Множество примеров в истории демонстрируют двустороннюю природу технологий, которые сочетают в себе как положительные, так и отрицательные элементы. В конце концов, даже несмотря на то, что это очень «высокотехнологичная» технологическая платформа, ИИ по-прежнему основан на алгоритмах и данных, разработанных и собранных людьми; В то же время большинство продуктов ИИ являются частью бизнес-планов компаний, которым они принадлежат.
Поэтому всегда существуют потенциальные риски как со стороны технической стороны, так и со стороны команды разработчиков и управления продуктом. Проблема здесь в потенциально огромном масштабе воздействия, которое инструменты ИИ могут оказать на массы, даже на социально-экономическом уровне сообщества. Своевременное внимание к этическому контролю при использовании технологий ИИ является позитивным знаком, в этом принимают участие крупные международные организации, такие как Организация Объединенных Наций, правительства, отраслевые ассоциации и, прежде всего, непосредственно подразделения по разработке технологий.
Однако, так же как список инструментов ИИ постоянно пополняется новыми версиями, каждая из которых становится более сложной и запутанной, чем предыдущая, Кодексы, Принципы или Руководства также должны своевременно обновляться и дополняться, и, более того, должны быть проактивными, чтобы предотвращать, ограничивать и контролировать подразделения по разработке продуктов и пользователей в рамках, где способность соблюдать этический контроль в технологиях ИИ в целом и работников СМИ в частности может достичь максимальной эффективности.
Источник
Комментарий (0)