Dans une interview accordée au Guardian , l'auteur du livre « Sapiens : une brève histoire de l'humanité » a déclaré que, contrairement aux armes nucléaires, les problèmes posés par les modèles d'IA ne se limitent pas à un seul grand scénario.
Avec l’IA, il existe d’innombrables scénarios dangereux, chacun d’entre eux ayant le potentiel de se combiner et de constituer une menace existentielle pour la civilisation humaine.
La déclaration multilatérale du Sommet mondial sur la sécurité de l'IA à Bletchley Park, au Royaume-Uni, a été un « pas en avant très important » car les principaux gouvernements se sont réunis pour exprimer leurs préoccupations concernant cette technologie et faire quelque chose à ce sujet, a déclaré Harari.
« Sans coopération mondiale, il sera extrêmement difficile, voire impossible, de contenir le potentiel le plus dangereux de l’IA », a-t-il déclaré.
Le sommet s'est conclu par un accord entre 10 gouvernements et de grandes entreprises d'IA, dont le développeur de ChatGPT OpenAI et Google, pour collaborer aux tests de modèles d'IA avancés avant et après leur publication.
Les auteurs de Sapiens soutiennent que l’un des problèmes liés aux tests de sécurité des modèles est de devoir prévoir tous les problèmes que cela pourrait causer.
L’IA est différente de toutes les technologies précédentes de l’histoire de l’humanité car elle est la première technologie capable de prendre des décisions, de générer de nouvelles idées et d’apprendre et de se développer par elle-même.
Par définition, il est extrêmement difficile pour les humains – même pour le « père » de l’IA – de prédire tous les dangers et problèmes potentiels.
Les gouvernements ont évoqué la menace que représentent les systèmes d’IA pour la création d’armes biologiques, mais d’autres scénarios pourraient être envisagés.
M. Harari a souligné que la finance est un domaine idéal pour les systèmes d’IA, car les données et l’IA à elles seules peuvent créer de graves crises.
« Et si l’IA obtenait non seulement un plus grand contrôle sur le système financier mondial , mais commençait également à créer de nouveaux dispositifs financiers que seule l’IA peut comprendre et que les humains ne peuvent pas ? » Harari a demandé.
La crise financière de 2007-2008 a été provoquée par des instruments de dette comme les obligations adossées à des actifs (CDO) qui étaient peu compris et donc pas entièrement réglementés, a ajouté l'historien.
« L'IA a le potentiel de créer des dispositifs financiers plus complexes que les CDO. Imaginez un système financier qu'aucun humain ne peut comprendre et donc réguler », a-t-il déclaré. « Et puis il y a une crise financière où personne ne comprend ce qui se passe. »
Le mois dernier, le gouvernement britannique a exprimé des inquiétudes concernant un modèle d’IA avancé qui pourrait constituer une menace existentielle en contrôlant et en manipulant les systèmes financiers.
Mais M. Harari estime qu’une crise financière générée par l’IA ne détruirait pas la civilisation humaine, « du moins pas directement ».
« Cela pourrait se produire indirectement, si cela déclenchait une guerre ou un conflit. C'est un risque catastrophique – économiquement, socialement et politiquement », a-t-il ajouté.
L'auteur israélien, qui soutient les appels à stopper le développement de l'IA avancée pendant six mois et à tenir les entreprises d'IA responsables des dommages causés par leurs produits, a déclaré que l'accent ne devrait pas être mis sur des réglementations et des lois spécifiques, mais sur des organismes de réglementation ayant une connaissance de la technologie et capables de réagir rapidement lorsque de nouvelles avancées apparaissent.
« Nous devons créer le plus rapidement possible des institutions réglementaires fortes, capables d’identifier et de réagir aux dangers dès qu’ils surviennent, en partant du principe que nous ne pouvons pas prévoir tous les dangers et tous les problèmes à l’avance. »
« Cela devrait être l’effort principal, et non pas la rédaction d’une réglementation très longue et compliquée qui, au moment où elle sera adoptée par le Congrès, pourrait être obsolète », a-t-il déclaré.
Les instituts de recherche sur la sécurité de l’IA devraient embaucher des experts qui comprennent l’impact potentiel de l’IA sur le monde financier, a déclaré Harari.
Le mois dernier, le chancelier britannique Rishi Sunak a annoncé la création d’un institut britannique de sécurité de l’IA. Quelques jours plus tard, la Maison Blanche a annoncé son intention de créer une agence similaire. Tous deux devraient jouer un rôle clé dans le test de modèles d’IA avancés.
S'exprimant lors du sommet, M. Sunak a déclaré que la Grande-Bretagne devait comprendre les capacités des modèles d'IA avancés avant d'introduire des lois pour y faire face.
(Selon The Guardian)
L'application d'IA GraphCast prédit les prévisions météorologiques sur 10 jours les plus précises au monde
Le laboratoire DeepMind de Google au Royaume-Uni a développé le système GraphCast, une application d'intelligence artificielle (IA) capable de fournir les prévisions météorologiques sur 10 jours les plus précises au monde.
La synergie de l'IA et du Cloud Computing
La combinaison de l’intelligence artificielle (IA) et du cloud computing est une tendance imparable qui remodèle les industries mondiales.
Source
Comment (0)