Ces derniers mois, les experts et chercheurs en sécurité des enfants ont mis en garde contre le risque que l’IA créative exacerbe les abus en ligne.
Le PDG de Meta, Mark Zuckerberg, s'exprime lors d'une audience du comité judiciaire du Sénat américain le 31 janvier 2024, devant une foule de participants portant des images générées par l'IA. Photo : Reuters
Le NCMEC n'a pas encore publié le nombre total de signalements de contenus d'abus d'enfants provenant de toutes les sources qu'il a reçus en 2023. Mais en 2022, il a reçu des signalements d'environ 88,3 millions de fichiers sur le problème.
« Nous recevons des rapports d’entreprises d’IA innovantes elles-mêmes, de plateformes (en ligne) et de membres du public », a déclaré John Shehan, vice-président du NCMEC.
Les PDG de Meta, X, TikTok, Snap et Discord ont témoigné lors d'une audience au Sénat américain mercredi (31 janvier) sur la sécurité des enfants sur les plateformes en ligne. Les législateurs américains ont interrogé les entreprises de médias sociaux sur leurs efforts pour protéger les enfants des « prédateurs en ligne ».
L'IA générative pourrait être utilisée par de mauvais acteurs pour nuire de manière répétée à de vrais enfants en créant de fausses images d'eux, ont déclaré des chercheurs de l'Observatoire Internet de Stanford dans un rapport en juin dernier.
Fallon McNulty, directrice de CyberTipline du NCMEC, qui recueille les signalements d’exploitation d’enfants en ligne, a déclaré que le contenu généré par l’IA devient « de plus en plus photoréaliste », ce qui rend difficile de déterminer si les victimes sont de vraies personnes.
OpenAI, la société qui a créé ChatGPT, a mis en place un processus pour soumettre des rapports au NCMEC, et l'organisation est en pourparlers avec d'autres sociétés d'IA, a déclaré McNulty.
Hoang Hai (selon Reuters, FT)
Source
Comment (0)