Après que la startup OpenAI a lancé sa première application d'IA, ChatGPT, fin 2022, une vague de course au développement d'applications d'IA a été déclenchée, en particulier l'IA générative, qui apporte de nombreux utilitaires dans tous les domaines de la vie Mais cela comporte également de nombreux risques.
Atteinte à la vie privée
Ces dernières années, de nombreuses organisations et particuliers ont subi des pertes lorsque des cybercriminels ont utilisé l’IA pour créer des clips vidéo imitant les images et les voix de personnes réelles. L’astuce Deepfake en est un exemple.
Selon le rapport sur la fraude à l'identité publié par Sumsub fin novembre 2023, les escroqueries Deepfake ont été multipliées par 10 dans le monde en 2022-2023. C’est aussi l’époque de l’explosion des applications de l’IA artificielle dans le monde.
Status Labs a commenté que Deepfake a eu un impact énorme sur la culture, la vie privée et la réputation personnelle. Une grande partie de l’actualité et de l’attention autour des Deepfakes s’est concentrée sur les vidéos pornographiques de célébrités, la pornographie de vengeance, la désinformation, les fausses nouvelles, le chantage et les escroqueries. Par exemple, en 2019, une entreprise énergétique aux États-Unis a été escroquée de 243 000 dollars par un escroc se faisant passer pour l’image et la voix des dirigeants de l’entreprise, demandant aux employés de transférer de l’argent à des partenaires.
L'agence de presse Reuters a déclaré qu'en 2023, environ 500 000 contenus Deepfake sous forme de vidéo et de voix ont été partagés sur les réseaux sociaux du monde entier. Outre les Deepfakes pour le plaisir, il existe des astuces créées par des méchants pour arnaquer la communauté. On estime qu'en 2022, les escroqueries Deepfake dans le monde entier ont causé des pertes allant jusqu'à 11 millions de dollars.
De nombreux experts en technologie ont mis en garde contre les effets négatifs que l'IA peut provoquer, notamment en matière de droits de propriété intellectuelle et d'authenticité, ainsi que contre les conflits de droits de propriété intellectuelle entre « auteurs » et « produits générés par l'IA ». Par exemple, une personne demande à une application d’IA de dessiner une image avec un certain thème, mais une autre personne demande également à l’IA de faire de même, ce qui donne des images avec de nombreuses similitudes.
Cela facilite l’apparition de conflits de propriété. Cependant, à ce jour, le monde n’a pas encore pris de décision sur la reconnaissance du droit d’auteur pour le contenu généré par l’IA (reconnaissance du droit d’auteur pour les personnes qui commandent de l’IA créative ou les entreprises qui développent des applications d’IA).
Difficile de distinguer le vrai du faux
Le contenu généré par l’IA peut-il alors violer le droit d’auteur ? En termes de technologie, le contenu généré par l’IA est synthétisé par des algorithmes à partir de données sur lesquelles il a été formé. Ces bases de données sont collectées par les développeurs d’applications d’IA à partir de nombreuses sources, principalement à partir de la base de connaissances sur Internet. Bon nombre de ces œuvres sont protégées par le droit d’auteur de leurs propriétaires.
Le 27 décembre 2023, le New York Times (USA) a poursuivi OpenAI (avec ChatGPT) et Microsoft, affirmant que des millions de leurs articles étaient utilisés pour former des chatbots IA et des plateformes IA. Ces 2 entreprises. Les preuves montrent qu’il existe des contenus créés par des chatbots à la demande des utilisateurs qui sont similaires ou identiques au contenu des articles. Ce journal ne peut ignorer quand sa « propriété intellectuelle » est utilisée par des entreprises à des fins lucratives.
Le New York Times est le premier grand journal américain à intenter une action en justice pour violation du droit d’auteur liée à l’IA. Il est possible que dans un avenir proche, d'autres journaux intentent également des poursuites, notamment après le succès du New York Times.
Auparavant, OpenAI avait conclu un accord de licence de droits d'auteur avec l'agence de presse Associated Press en juillet 2023 et avec Axel Springer - un éditeur allemand propriétaire de deux journaux Politico et Business Insider - en décembre 2023.
L'actrice Sarah Silverman a également rejoint plusieurs poursuites en juillet 2023, accusant Meta et OpenAI d'avoir utilisé ses mémoires comme texte de formation pour les programmes d'IA. De nombreux écrivains ont également exprimé leur inquiétude lorsqu'il a été révélé que des systèmes d'IA avaient absorbé des dizaines de milliers de livres dans leur base de données, ce qui a donné lieu à des poursuites judiciaires de la part d'auteurs tels que Jonathan Franzen et John Grisham.
Entre-temps, le service photo Getty Images a également poursuivi une société d'IA pour avoir créé des images basées sur des invites textuelles en raison de l'utilisation non autorisée du matériel visuel protégé par le droit d'auteur de la société...
Les utilisateurs peuvent avoir des problèmes de droits d’auteur lorsqu’ils utilisent « négligemment » des « œuvres » qu’ils ont demandé à des outils d’IA de « composer ». Les experts recommandent toujours d’utiliser les outils d’IA uniquement pour rechercher, collecter des données et faire des suggestions à titre de référence uniquement.
Dans un autre domaine, les applications d’IA déroutent les utilisateurs lorsqu’ils ne parviennent pas à distinguer la vérité de la fausseté d’un certain contenu. Les éditeurs et les rédacteurs peuvent être confus lorsqu’il s’agit d’accepter des manuscrits. Les enseignants ont également du mal à savoir si le travail des élèves utilise l’IA ou non.
La communauté devra désormais être plus vigilante car elle ne sait pas quel contenu est vrai et quel contenu est faux. Par exemple, il serait difficile pour une personne moyenne de détecter si une photo a été « enchantée » ou modifiée par l’IA.
Des réglementations juridiques sur l’utilisation de l’IA sont nécessaires
En attendant des outils applicatifs capables de détecter l’intervention de l’IA, les agences de gestion doivent bientôt disposer de réglementations juridiques claires et précises sur l’utilisation de cette technologie pour créer du contenu privé. Les réglementations juridiques doivent montrer aux gens que le contenu et les œuvres ont été modifiés par l’IA, par exemple, par défaut, en filigranant les images qui ont été manipulées par l’IA.
Source : https://nld.com.vn/mat-trai-cua-ung-dung-tri-tue-nhan-tao-196240227204333618.htm
Comment (0)