Les experts en IA et les politologues férus de technologie tirent la sonnette d’alarme sur l’état imprévisible des outils d’IA générative comme ChatGPT à l’approche de l’élection présidentielle américaine de 2024.
« L’Amérique n’est pas préparée à cela »
Le 15 mai, Fox News a cité M. AJ Nash, vice-président de l'IA chez ZeroFox, une société de cybersécurité dont le siège social est situé dans le Minnesota, aux États-Unis, avertissant que les Américains ne sont pas préparés à la perspective de devoir faire face à une IA artificielle. Selon lui, l’intelligence artificielle peut non seulement composer rapidement des e-mails, des messages et des clips vidéo pour les campagnes électorales, mais peut également être transformée en outils dangereux.
Les gouvernements se précipitent pour réglementer les outils d'IA
« L'IA générative représente une avancée significative dans la création de contenu audio et vidéo. Pouvoir le déployer à grande échelle et le diffuser sur les réseaux sociaux a un impact considérable », explique Nash. Parmi les nombreuses possibilités offertes par l’IA générative comme ChatGPT, nombreuses sont celles qui ont un fort impact sur les élections et le vote dans un pays moderne comme les États-Unis.
ChatGPT peut créer beaucoup de contenu en peu de temps
Photo d'illustration : REUTERS
Par exemple, ChatGPT peut générer des messages vocaux automatisés qui imitent la voix des candidats, demandant aux électeurs de voter le mauvais jour ; publier des enregistrements audio de candidats avouant un crime ou créant du contenu raciste ; créer un clip vidéo d'une personne prononçant un discours ou une interview qui n'a jamais eu lieu. De plus, des images générées par ordinateur basées sur des présentations d’informations locales peuvent apparaître, avec un contenu trompeur, comme l’annonce du retrait d’un candidat de la course.
« Et si le milliardaire Elon Musk vous appelait personnellement et vous convainquait de voter pour un candidat en particulier ? » a déclaré le Dr Oren Etzioni, ancien PDG et fondateur de l'Allen Institute for AI (dont le siège est dans l'État de Washington, aux États-Unis). « Beaucoup de gens l'écoutaient. Mais il ne passait pas d'appels téléphoniques de ce genre ; c'était une IA », a souligné le Dr Etzioni.
Danger de l'ennemi
M. Petko Stoyanov, directeur mondial de la technologie de l'entreprise de cybersécurité Forcepoint (dont le siège social est situé au Texas, aux États-Unis), a averti que des puissances étrangères pourraient exploiter l'intelligence artificielle pour tenter de saboter les élections américaines de 2024. « Que se passerait-il si une puissance étrangère, une organisation cybercriminelle ou un État, tentait de se faire passer pour quelqu'un ? Quel serait l'impact ? Avons-nous un moyen de réagir ? », a-t-il soulevé. Selon lui, les États-Unis seront témoins d’une vague de désinformation provenant de sources étrangères pendant la période électorale.
Le sénateur Pete Ricketts (Nebraska) a également mis en garde contre le risque que des organisations pro-chinoises utilisent des deepfakes (une technologie qui crée des images et des vidéos fabriquées pour ressembler à des personnes et des événements réels) pendant la campagne électorale de 2024. « Ils en ont absolument la capacité, et nous devons y être très vigilants », a déclaré Ricketts à Fox News.
Depuis le début de l’année, les fausses nouvelles générées par l’IA ont provoqué à plusieurs reprises des tempêtes sur les réseaux sociaux. Il s’agit notamment de fausses vidéos de Biden faisant des déclarations offensantes sur les personnes transgenres, ou d’images fabriquées montrant des enfants apprenant le satanisme dans les bibliothèques. Beaucoup de gens y ont même cru après que la photo du dossier de police de l'ancien président Donald Trump a été publiée sur Internet, même s'il n'était pas photographié comme un criminel. D’autres images générées par l’IA montrent Trump résistant à son arrestation, et elles sont également fausses.
La représentante Yvette Clarke (N.Y.) a présenté un projet de loi qui obligerait les candidats à informer les électeurs de la publicité générée par l'IA. Mme Clark a également coparrainé un projet de loi qui obligerait toute personne créant des images composites à inclure un filigrane pour indiquer clairement la source de l’image. Plusieurs États ont également publié leurs propres propositions pour répondre aux préoccupations liées aux deepfakes.
Le sénateur Ricketts a déclaré que ce qui peut être fait maintenant est d’améliorer l’éducation des Américains sur les risques liés à l’IA artificielle. Le gouvernement américain pourrait travailler avec les universités pour améliorer sa capacité à détecter les fausses images avant les élections, a-t-il déclaré.
ChatGPT mis à niveau
Selon Mashable, OpenAI (Californie, USA) vient de réaliser une mise à niveau importante de ChatGPT, selon laquelle cet outil peut désormais se connecter et surfer sur le Web tout en fonctionnant. Cela permet à ChatGPT de se mettre à jour avec les dernières informations et de fournir des réponses plus précises. Actuellement, des entreprises comme Amazon aux États-Unis recrutent des équipes d’ingénieurs en IA pour créer et intégrer des interfaces comme ChatGPT afin de servir les échanges clients.
Lien source
Comment (0)