В последние месяцы эксперты и исследователи по безопасности детей предупреждают о потенциальной возможности творческого ИИ усугубить насилие в Интернете.
Генеральный директор Meta Марк Цукерберг выступает на слушаниях в Судебном комитете Сената США 31 января 2024 года перед толпой участников, несущих изображения, созданные с помощью искусственного интеллекта. Фото: Рейтер
NCMEC пока не опубликовал общее количество сообщений о контенте, связанном с насилием над детьми, полученных им из всех источников в 2023 году. Однако в 2022 году он получил сообщения о примерно 88,3 миллионах файлов, касающихся этой проблемы.
«Мы получаем отчеты от самих инновационных компаний, занимающихся ИИ, (онлайн) платформ и представителей общественности», — сказал Джон Шехан, вице-президент NCMEC.
Генеральные директора Meta, X, TikTok, Snap и Discord дали показания на слушаниях в Сенате США в среду (31 января) о безопасности детей на онлайн-платформах. Американские законодатели подвергли сомнению действия компаний, владеющих социальными сетями, по защите детей от «сетевых хищников».
Исследователи из Стэнфордской интернет-обсерватории в отчете, опубликованном в июне прошлого года, заявили, что генеративный ИИ может использоваться злоумышленниками для многократного причинения вреда реальным детям путем создания их поддельных изображений.
Фэллон МакНалти, директор CyberTipline NCMEC, которая принимает сообщения об эксплуатации детей в Интернете, заявила, что контент, создаваемый ИИ, становится «все более фотореалистичным», что затрудняет определение того, являются ли жертвы реальными людьми.
По словам Макналти, компания OpenAI, создавшая ChatGPT, разработала процесс подачи отчетов в NCMEC, и организация ведет переговоры с другими компаниями, занимающимися ИИ.
Хоанг Хай (по данным Reuters, FT)
Источник
Комментарий (0)