ここ数カ月、児童安全の専門家や研究者は、創造的なAIがオンラインでの虐待を悪化させる可能性があると警告している。
メタのCEO、マーク・ザッカーバーグ氏は、2024年1月31日に行われた米国上院司法委員会の公聴会で、AI生成画像を持った大勢の出席者の前で演説した。写真:ロイター
NCMECは、2023年にすべての情報源から受け取った児童虐待コンテンツに関する報告の総数をまだ公表していない。しかし、2022年には、この問題に関する約8,830万件のファイルの報告を受けた。
「私たちは革新的なAI企業自身、(オンライン)プラットフォーム、そして一般の人々から報告を受けています」とNCMEC副社長のジョン・シーハン氏は語った。
Meta、X、TikTok、Snap、DiscordのCEOらは水曜日(1月31日)の米上院公聴会でオンラインプラットフォーム上の子供の安全について証言した。米国の議員らは、ソーシャルメディア企業に対し、子供たちを「オンライン上の捕食者」から守るための取り組みについて疑問を呈している。
スタンフォード・インターネット・オブザーバトリーの研究者らは昨年6月の報告書で、生成型AIは悪意のある人物によって使用され、実在する子供たちの偽の画像を作成することで繰り返し危害を加える可能性があると述べた。
ネット上の児童搾取の報告を受け付けるNCMECのサイバーティップラインのディレクター、ファロン・マクナルティ氏は、AIが生成したコンテンツは「ますます写真のようにリアル」になっており、被害者が実在の人間かどうかを判断するのが難しくなっていると語った。
ChatGPTを開発したOpenAIはNCMECに報告書を提出するプロセスを確立しており、同組織は他のAI企業と協議中だとマクナルティ氏は語った。
ホアン・ハイ(ロイター、FTによる)
[広告2]
ソース
コメント (0)