Les législateurs continueront de discuter des réglementations détaillées dans les semaines à venir en vue de finaliser le processus au début de l'année prochaine, avec l'intention de l'appliquer à partir de 2026.
D’ici là, les entreprises sont encouragées à adhérer au Pacte volontaire sur l’IA afin de remplir les obligations clés des règles.
Vous trouverez ci-dessous les principaux contenus de l’accord conclu par l’UE.
Système à haut risque
Les systèmes d’IA dits à haut risque – ceux considérés comme susceptibles de causer un préjudice important à la santé, à la sécurité, aux droits fondamentaux, à l’environnement, à la démocratie, aux élections et à l’État de droit – devront se conformer à une série d’exigences, telles que la réalisation d’analyses d’impact sur les droits fondamentaux et les obligations d’accès au marché de l’UE.
Les systèmes à faible risque, quant à eux, seraient soumis à des obligations de transparence plus légères, telles que l’étiquetage du contenu généré par l’IA afin que les utilisateurs puissent envisager de l’utiliser.
L'IA dans l'application de la loi
Les forces de l’ordre ne sont autorisées à utiliser des systèmes d’identification biométrique à distance en temps réel que dans les espaces publics, pour identifier les victimes d’enlèvement, de traite des êtres humains, d’exploitation sexuelle et pour prévenir les menaces terroristes spécifiques et imminentes.
Les autorités seront également autorisées à utiliser la technologie de l’IA pour traquer les suspects de terrorisme, de trafic d’êtres humains, d’exploitation sexuelle, de meurtre, d’enlèvement, de viol, de vol à main armée, de participation à une organisation criminelle et de crimes environnementaux.
Systèmes d'IA générale et de plate-forme (GPAI)
GPAI et les modèles sous-jacents seront soumis à des exigences de transparence telles que la production de documentation technique, le respect de la législation européenne sur le droit d'auteur et la publication de résumés détaillés du contenu utilisé pour former les algorithmes.
Les modèles de plateformes qui entrent dans la catégorie des modèles potentiellement générateurs de risques systémiques et d'impact élevé seront tenus de procéder à une évaluation générale du modèle, d'examiner et d'atténuer les risques, de réaliser des tests d'ingénierie inverse, de notifier à la Commission européenne les incidents graves, d'assurer la cybersécurité et de rendre compte de la consommation d'énergie.
Tant que les normes harmonisées de l’UE ne seront pas publiées, les PMAI courent un risque systémique de devoir s’appuyer sur des codes de pratique pour se conformer aux réglementations.
Les systèmes d'IA sont interdits
Les comportements et contenus interdits comprennent : les systèmes de classification biométrique qui utilisent des caractéristiques sensibles telles que la politique, la religion, les croyances philosophiques, l’orientation sexuelle et la race ;
Numérisation non ciblée d’images faciales provenant d’Internet ou de séquences de vidéosurveillance pour créer une base de données de reconnaissance faciale ;
Reconnaissance des émotions en milieu de travail et dans le milieu éducatif;
La notation sociale est basée sur le comportement social ou les caractéristiques personnelles ;
Les systèmes d’IA manipulent le comportement humain pour subvertir leur libre arbitre ;
L’IA est utilisée pour exploiter les faiblesses humaines dues à leur âge, à leur handicap, à leur situation économique ou sociale.
Sanctions
En fonction de l'infraction et de la taille de l'entreprise concernée, les amendes commenceront à 7,5 millions d'euros (8 millions de dollars) ou 1,5 % du chiffre d'affaires mondial annuel, et pourront atteindre 35 millions d'euros ou 7 % du chiffre d'affaires mondial.
(Selon Reuters)
L'UE parvient à un accord historique pour réglementer l'intelligence artificielle
L'UE parvient à un accord sur la loi sur la protection des appareils intelligents
L'UE durcit le ton envers les géants de la technologie et menace de démanteler les entreprises en infraction
Source
Comment (0)