Selon une étude de Google DeepMind, la création d'images, de vidéos et d'audios imitant l'homme est presque deux fois plus courante que la création de fausses informations à l'aide d'outils tels que les chatbots IA.
L’analyse a révélé que l’objectif le plus courant des acteurs qui abusent de l’IA synthétique est de façonner ou d’influencer l’opinion publique. Ce chiffre représente 27 % de l’utilisation, ce qui suscite des inquiétudes quant à la manière dont les deepfakes pourraient influencer les élections dans le monde entier cette année.
Des faux portraits du Premier ministre britannique Rishi Sunak sont apparus sur TikTok et Instagram avant les élections générales. Photo : AFP
Des deepfakes du chancelier britannique Rishi Sunak et d'autres dirigeants mondiaux sont apparus sur TikTok, X et Instagram ces derniers mois. Les électeurs britanniques se rendront aux urnes la semaine prochaine pour des élections générales.
Certains craignent que, malgré les efforts des médias sociaux pour étiqueter ou supprimer ce type de contenu, le public ne le reconnaisse pas comme faux et que sa diffusion puisse influencer les électeurs.
Ardi Janjeva, chercheur associé à l'Institut Alan Turing, a qualifié les conclusions de l'étude de « particulièrement pertinentes », selon lesquelles les informations publiques générées par l'IA peuvent « déformer notre compréhension commune de la réalité sociopolitique ».
« Même si nous ne sommes pas certains de l’impact des deepfakes sur le comportement électoral, cette distorsion peut être difficile à détecter à court terme et présente des risques à long terme pour la démocratie », a ajouté Janjeva.
« Il y a eu beaucoup d’inquiétudes autour des cyberattaques assez sophistiquées qui sont créées à l’aide de ces outils », a déclaré la chercheuse Nahema Marchal, auteure principale de l’étude chez Google DeepMind.
Des chercheurs de Google DeepMind et Jigsaw ont analysé environ 200 cas d'utilisation abusive de l'IA entre janvier 2023 et mars 2024, tirés des réseaux sociaux X et Reddit, ainsi que des blogs en ligne et des rapports médiatiques sur les abus.
La deuxième motivation la plus courante derrière les abus est la monétisation, qui comprend la création de photos nues de personnes réelles ou l’utilisation de l’IA pour générer une variété de contenus, tels que de faux articles d’actualité. La plupart des scénarios utilisent des outils accessibles qui « nécessitent une expertise technique minimale », ce qui signifie que de nombreux acteurs malveillants peuvent abuser de l’IA créative.
Ngoc Anh (selon le FT)
Source : https://www.congluan.vn/nghien-cuu-deepfake-chinh-tri-dung-dau-trong-danh-sach-su-dung-ai-doc-hai-post300851.html
Comment (0)