Un groupe d’éminents experts internationaux s’est réuni à Pékin la semaine dernière, où ils ont identifié des « lignes rouges » dans le développement de l’IA, notamment la création d’armes biologiques et la conduite de cyberattaques.
Dans une déclaration publiée quelques jours après la réunion, les chercheurs ont averti qu’une approche commune de la sécurité de l’IA était nécessaire pour prévenir « des risques catastrophiques, voire existentiels, pour l’humanité au cours de notre vie ».
« Au plus fort de la guerre froide, la coopération internationale entre les gouvernements et les scientifiques a contribué à prévenir une catastrophe nucléaire. « L’humanité doit une fois de plus travailler ensemble pour éviter une catastrophe qui pourrait survenir à cause d’une technologie sans précédent », peut-on lire dans le communiqué.
Les experts du Dialogue international sur la sécurité de l’IA à Pékin ont identifié des « lignes rouges » dans le développement de l’IA. Photo : FT
Parmi les signataires figurent Geoffrey Hinton et Yoshua Bengio, souvent décrits comme les « pères » de l’IA ; Stuart Russell, professeur d’informatique à l’Université de Californie ; et Andrew Yao, l’un des informaticiens les plus éminents de Chine.
Cette déclaration fait suite au Dialogue international sur la sécurité de l'IA qui s'est tenu à Pékin la semaine dernière, une réunion à laquelle ont participé des responsables du gouvernement chinois pour exprimer leur approbation du forum et de ses résultats.
Le président américain Joe Biden et le président chinois Xi Jinping se sont rencontrés en novembre dernier et ont discuté de la sécurité de l'IA, convenant d'établir un dialogue sur la question. Les plus grandes entreprises mondiales d’IA ont également rencontré en privé des experts chinois en IA au cours des derniers mois.
En novembre 2023, 28 pays, dont la Chine, et des entreprises d’IA de premier plan ont convenu d’un large engagement à travailler ensemble pour faire face aux risques existentiels découlant de l’IA avancée lors du sommet sur la sécurité de l’IA organisé par le chancelier britannique Rishi Sunak.
La semaine dernière, à Pékin, des experts ont discuté des menaces associées au développement de « l’intelligence artificielle générale – AGI », ou des systèmes d’IA égaux ou supérieurs aux humains.
« Le point central de la discussion était les lignes rouges qu’aucun système d’IA puissant ne devrait franchir et que les gouvernements du monde entier devraient imposer dans le développement et le déploiement de l’IA », a déclaré Bengio.
Ces lignes rouges garantiraient qu’« aucun système d’IA ne puisse se répliquer ou s’améliorer sans l’approbation et le soutien explicites de l’homme » ou « prendre des mesures qui augmentent indûment son pouvoir et son influence ».
Les scientifiques ont ajouté qu’aucun système ne « renforcerait de manière significative la capacité des acteurs à concevoir des armes de destruction massive, à violer la convention sur les armes biologiques ou chimiques » ou à « mener automatiquement des cyberattaques entraînant de graves pertes financières ou des dommages équivalents ».
Hoang Hai (selon le FT)
Source
Comment (0)