Dans un document de 20 pages publié le 26 novembre, 18 pays ont convenu que les entreprises de recherche et d'application de l'IA doivent développer et déployer la technologie d'une manière qui protège les clients et le grand public contre les abus, selon Reuters.
L'accord n'est pas contraignant et contient principalement des recommandations générales, telles que la surveillance des systèmes d'IA pour détecter et prévenir les abus, la protection des données et le contrôle des fournisseurs de logiciels.
Le développement de l’IA entraîne une course dans le domaine technologique ainsi que de nombreuses préoccupations.
Cependant, Jen Easterly, directrice de l'Agence américaine de cybersécurité et de sécurité des infrastructures, a déclaré qu'il était important que de nombreux pays partagent l'avis selon lequel les systèmes d'IA doivent donner la priorité à la sécurité.
« C’est la première fois que nous voyons des pays se réunir et dire que ces capacités ne se limitent pas à l’attrait des fonctionnalités, à la rapidité avec laquelle nous pouvons les mettre sur le marché ou à la manière dont nous pouvons rivaliser pour réduire les coûts », a déclaré Easterly à Reuters. Le responsable a déclaré que les directives représentent « un accord selon lequel la chose la plus importante à garantir au stade de la conception est la sécurité ».
Cet accord est le dernier d’une série d’initiatives prises par les gouvernements du monde entier pour façonner le développement de l’IA. L’impact de l’IA se fait de plus en plus sentir dans tous les secteurs et dans la société en général.
Le document aborde les questions relatives à la manière de protéger les systèmes d’IA contre les attaques de pirates informatiques et inclut des recommandations telles que la publication de nouveaux modèles uniquement après des tests de sécurité approfondis. Les nouvelles directives n’abordent pas les questions épineuses concernant l’utilisation appropriée de l’IA ou la manière de collecter les données qui alimentent ces modèles.
L’essor de l’IA a suscité de nombreuses inquiétudes, notamment la crainte que l’IA puisse être utilisée pour perturber le processus démocratique, promouvoir la fraude ou conduire à un chômage massif, entre autres préjudices.
L’Europe est en avance sur les États-Unis dans la mise en œuvre de réglementations liées à l’IA. La France, l’Allemagne et l’Italie sont également récemment parvenues à un accord sur la manière de réguler le secteur, concernant les modèles sous-jacents de l’IA.
L’administration Biden a fait pression sur les législateurs pour qu’ils réglementent l’IA, mais le Congrès, profondément polarisé, n’a fait que peu de progrès dans l’adoption de réglementations efficaces.
La Maison Blanche a cherché à atténuer les risques liés à l’IA pour les consommateurs, les travailleurs et les minorités tout en renforçant la sécurité nationale avec un nouveau décret en octobre.
Lien source
Comment (0)