Потенциальные риски распространения дезинформации
Наука и технологии не только влияют на то, как пресса и средства массовой информации передают свои сообщения, влияют и обуславливают способ и эффективность доступа общественности, но и глубоко воздействуют на качество информации.
На самом деле журналистика смогла быстро адаптироваться к технологическим инновациям, особенно в последние годы. Искусственный интеллект (ИИ) становится все более популярным в средствах массовой информации и редакциях новостей. Внедрение ИИ пошло на пользу как журналистам, так и медийным организациям. Это освобождает журналистов от утомительных рутинных задач, экономя их время и позволяя сосредоточиться на более творческой и высококвалифицированной работе.
Хотя ИИ имеет множество преимуществ, он также вызывает некоторые опасения. Одним из наиболее существенных рисков является возможность распространения дезинформации с помощью контента, созданного с помощью ИИ.
Десять крупнейших мировых информационных агентств призывают к коллективным и прозрачным переговорам между средствами массовой информации и разработчиками ИИ, чтобы контролировать, какие материалы, защищенные авторским правом, могут использоваться для обучения инструментов ИИ, а также устранить предвзятость в алгоритмах ИИ.
На прошлой неделе 10 ведущих мировых информационных агентств подписали письмо, призывающее к прозрачности и четким законам об авторском праве в отношении ИИ. Эти информационные агентства утверждают, что ИИ может «поставить под угрозу устойчивость экосистемы СМИ», существенно подорвав доверие читателей к качеству и достоверности новостей.
Согласно многочисленным исследованиям, ИИ можно использовать для фильтрации и отбора историй, которые с наибольшей вероятностью привлекут внимание читателей и вызовут интерес, тем самым создавая дисбаланс в новостях, которого бы не было, если бы истории представлялись объективно и создавались человеком. Общественность знакома только с одной стороной истории, и поэтому она может быть предвзята из-за односторонней информации, генерируемой ИИ. Кроме того, ИИ можно использовать для распространения дезинформации и фейковых новостей среди общественности, представляя фейковые истории наряду с реальными.
Кроме того, ИИ можно обмануть с помощью фейковых новостей. Алгоритмы ИИ предназначены для быстрой и точной обработки данных, поэтому бывает сложно отличить реальные новости от фейковых. Более того, ИИ не способен понимать эмоциональные и этические последствия обрабатываемых им новостей. По мере того, как искусственный интеллект продолжает совершенствоваться, уязвимость к фейковым новостям будет расти, из-за чего станет еще сложнее отличить правду от подделки.
По словам доцента доктора Нгуена Нгок Оаня, заведующего кафедрой международных отношений Академии журналистики и коммуникаций, когда ИИ становится все более мощным, нам также необходимо уделять особое внимание и проявлять инициативу в отношении риска использования ИИ злоумышленниками и враждебными силами для распространения токсичных и фейковых новостей. С точки зрения безопасности СМИ это несет потенциальный риск дезинформации, искажения информации и фейковых новостей. После того, как искусственный интеллект будет применяться в информационной сфере, технология сможет помочь подделывать голоса, изображения, создавать фальшивые истории и заявления, которые кажутся реальными, чтобы обманывать общественность, особенно в пространстве социальных сетей.
«Люди с плохими намерениями пользуются ролью и репутацией прессы, чтобы фальсифицировать информацию, обманывая общественность, что информация предоставлена и отражена прессой. Разработка фейковых новостей станет более изощренной и сложной, и поэтому, наряду с повышением бдительности, методы выявления, реагирования и обработки фейковых новостей должны быть сосредоточены на инвестировании в интеллектуальные технологии и систематической обработке. Необходимо улучшить возможности социального управления и управления печатными агентствами, чтобы адаптироваться к изменениям», - прокомментировал доцент , доктор Нгуен Нгок Оан.
Новостная индустрия должна найти способы защитить свой творческий контент.
С момента запуска ChatGPT в ноябре 2022 года новые приложения на базе платформы генеративного ИИ внедряются практически ежедневно. В результате Интернет заполнен контентом, созданным искусственным интеллектом. Наряду с вещами, которые удивляют людей, есть также много скучного, повторяющегося контента. Это облегчает распространение дезинформации, а также накладывает большую нагрузку на медиаиндустрию в попытках завоевать и восстановить доверие читателей.
Журналист Нгуен Хоанг Нхат, заместитель главного редактора газеты Vietnamplus, вспомнил уроки прошлого, когда многие эксперты говорили, что одной из первых больших ошибок прессы стала слишком медленная реакция на важность и вторжение социальных сетей. «Мы потратили много времени на то, чтобы разместить весь контент, который мы производим, в социальных сетях, изменив наши основные принципы, чтобы служить им, что порой не является нашей сильной стороной и не нужно читателям. Короче говоря, мы дали слишком много власти социальным сетям и привели к тому, что социальные сети развернулись и поглотили нас», — сказал журналист Нгуен Хоанг Нхат.
В дни, когда женская сборная Вьетнама выступала на чемпионате мира, в социальных сетях появилось множество источников, распространяющих искаженную и сфабрикованную информацию. (Фото: VTC)
Рассматривая текущую угрозу со стороны ИИ, журналист Нгуен Хоанг Нхат сказал, что в целом ИИ помогает редакциям быстрее выполнять свою работу и экономить средства, но он сделает редакторов и репортеров более снисходительными, а также будет способствовать более быстрому распространению ложной информации. «Например, во время недавнего чемпионата мира по футболу среди женщин фейковый контент о женской сборной Вьетнама стал невероятно вирусным благодаря мемам, созданным с использованием инструментов искусственного интеллекта, что довело общую психологию части аудитории до крайних пределов», — привел пример журналист Нгуен Хоанг Нхат.
За рубежом News Guard опубликовала шокирующую статистику: 347 новостных сайтов ничем не отличаются от настоящих новостных сайтов, но заполнены контентом, созданным искусственным интеллектом, и распространяют дезинформацию. Недавнее исследование Массачусетского технологического института (MIT) показало, что люди более склонны верить дезинформации, созданной искусственным интеллектом, чем фейковым новостям, написанным человеком.
По словам журналиста Нгуена Хоанг Нхата, эта реальность ставит новостную индустрию в положение, когда она должна искать способы защиты своего творческого контента и интеллектуальной собственности, но при этом не может отказаться от удобств, которые приносит ИИ.
Оценивая проблемы честности новостей, доцент д-р Нгуен Нгок Оанх сказал, что, хотя Chat GPT обладает множеством выдающихся особенностей, в конечном итоге это всего лишь инструмент, которым журналисты должны научиться владеть, использовать его в своей профессиональной деятельности для создания произведений и журналистских продуктов в соответствии с принципами профессии. Вопрос проверки источников информации репортеров и журналистов крайне важен, если они не хотят «способствовать» распространению недостоверной информации.
В ходе многочисленных семинаров и дискуссий по теме искусственного интеллекта был сделан вывод о том, что риск использования фейковых данных и новостей в журналистских работах очень высок, если управление контентом в редакции не успевает за развитием цифровых технологий. В связи с тем, что правовая база цифровой журналистики во Вьетнаме еще не соответствует действительности, юридические проблемы, угрозы безопасности СМИ, случаи нарушения авторских прав и споры по поводу этики прессы и социальной ответственности прессы при применении автоматизированной журналистики... являются сегодня серьезными проблемами.
Фан Хоа Жанг
Источник
Комментарий (0)