Traitez l’IA comme une arme biologique, pas comme une bombe nucléaire !

Báo Quốc TếBáo Quốc Tế11/06/2023

Récemment, Gizmodo.com, un site Web consacré aux technologies de l'information spécialisé dans la mise à jour de l'actualité des tendances technologiques de renommée mondiale, a publié une analyse sur la manière dont les gens devraient traiter la technologie de l'intelligence artificielle (IA).
Chuyên gia Mỹ: Hãy đối xử với AI như vũ khí sinh học, không phải bom hạt nhân! (Nguồn: gizmodo.com)
Illustration pour l’appel à traiter l’IA comme une arme biologique. (Source : gizmodo.com)

Dans l'article Treat AI as a biological weapon, not a nuclear weapon d'Emilia Javorsky, scientifique-médecin et directrice du Future of Life Institute (USA), l'auteur soutient que malgré le fait que le monde a récemment comparé à plusieurs reprises l'IA aux bombes nucléaires, il existe une approche plus appropriée, qui consiste à réglementer ce type de technologie comme une arme biologique ou une biotechnologie.

Selon l’auteur, l’IA est peut-être la technologie la plus puissante de l’histoire de l’humanité que les humains développent aujourd’hui. Les méfaits de l’IA, notamment la discrimination, les menaces à la démocratie et la concentration d’influence, sont bien documentés.

Pourtant, les principales entreprises d’IA s’efforcent de créer des systèmes d’IA de plus en plus puissants, augmentant les risques à un rythme sans précédent dans l’histoire de l’humanité.

Alors que les dirigeants tentent de trouver comment contenir et contrôler l’essor de l’IA et les risques qui y sont associés, ils doivent prendre en compte les ajustements et les normes que l’humanité a mis à profit pour la créer dans le passé.

L’ajustement et l’innovation peuvent coexister, surtout lorsque des vies humaines sont en jeu.

Un avertissement concernant la technologie nucléaire

Bien que l’énergie nucléaire soit plus de 600 fois plus sûre que le pétrole en termes de mortalité et qu’elle soit extrêmement efficace, peu de pays y ont recours en raison des conséquences qu’ils ont constatées à cause de leur approche de longue date du nucléaire.

Le monde connaît la technologie nucléaire sous la forme de bombes atomiques et de bombes à hydrogène. Grâce à ces armes, pour la première fois dans l’histoire, les humains ont développé une technologie capable de mettre fin à la civilisation humaine, produit d’une course aux armements qui privilégiait la vitesse et l’innovation plutôt que la sécurité et le contrôle.

Les défaillances ultérieures en matière de sécurité technique et de gestion des risques, responsables notamment des catastrophes nucléaires de Tchernobyl et de Fukushima, ont détruit toute chance de voir les gens accepter les aspects positifs de l’énergie nucléaire.

Malgré l’évaluation globalement favorable des risques liés à l’énergie nucléaire et malgré des décennies de travail scientifique pour convaincre le monde de sa viabilité, le concept même de « nucléaire » reste… souillé.

Lorsqu’une technologie cause des dommages dès ses débuts, la perception sociale et la réaction excessive qui en résulte peuvent limiter de manière permanente ses avantages potentiels. En raison des premiers faux pas de l’énergie nucléaire, les humains n’ont pas pu profiter de cette source d’énergie propre et sûre, tandis que la neutralité carbone et la stabilité énergétique restent un rêve plutôt irréaliste.

La bonne approche en matière de biotechnologie

Pourtant, dans certains domaines, les humains ont réussi. La biotechnologie est l’un de ces domaines, qui est encouragé à se développer rapidement dans le contexte des nombreuses souffrances des patients et des nombreux décès qui surviennent encore chaque jour à cause de maladies incurables.

L’éthique de cette recherche n’est pas de « bouger vite et de casser des choses », mais d’innover aussi rapidement et en toute sécurité que possible. Les humains limitent le rythme de l’innovation dans ce domaine par un système de réglementations, d’éthique et de normes qui protègent le bien-être de la société et des individus, et protègent l’industrie d’une paralysie par des réactions négatives qui pourraient conduire au désastre.

Lorsque les armes biologiques ont été interdites par la Convention sur les armes biologiques pendant la guerre froide, les superpuissances opposées ont convenu que la création de telles armes n’était dans l’intérêt de personne. Les dirigeants ont compris que ces technologies difficiles à contrôler mais très accessibles ne devaient pas être considérées comme un mécanisme permettant de gagner la course aux armements, mais comme une menace pour l’humanité elle-même.

Emilia Javorsky est l’une des scientifiques qui ont récemment signé une lettre ouverte préconisant une pause de six mois dans le développement de l’IA. Elle a également signé une déclaration avertissant que l’IA représente un « risque d’extinction » pour l’humanité.

Une pause dans la course aux armes biologiques permet aux humains de les développer à un rythme responsable. Les scientifiques et les régulateurs appliquent des normes strictes à toute nouvelle innovation susceptible de nuire aux humains.

Ces ajustements n’ont pas été sans coût mais ont permis d’établir une bioéconomie, avec des applications dans des domaines allant de l’énergie propre à l’agriculture.

Pendant la pandémie de Covid-19, les biologistes ont appliqué la technologie de l’ARNm pour produire des vaccins efficaces à une vitesse sans précédent dans l’histoire de l’humanité.

Une enquête récente menée auprès de chercheurs en IA a révélé que 36 % des personnes interrogées estimaient que l’IA pourrait provoquer une catastrophe de niveau nucléaire. Toutefois, la réponse et les ajustements du gouvernement ont été lents. Ce rythme n’est pas cohérent avec le rythme d’adoption de la technologie, l’application ChatGPT dépassant désormais les 100 millions d’utilisateurs.

L’augmentation rapide des risques liés à l’IA a incité 1 800 PDG et 1 500 professeurs aux États-Unis à signer récemment une lettre appelant à une pause de six mois dans le développement de l’IA et à un processus urgent de réglementation et d’atténuation des risques. Cette pause donnera à la communauté internationale le temps de limiter les dommages causés par l’IA et d’empêcher ce qui pourrait être un désastre irréversible pour notre société.

Lors de l’évaluation des risques et des dangers potentiels de l’IA, nous devons également prendre en compte le potentiel positif de cette technologie. Si nous développons l’IA de manière responsable dès maintenant, nous récolterons d’incroyables bénéfices de cette technologie. Par exemple, les avantages de l’application de l’IA à la découverte et au développement de médicaments, l’amélioration de la qualité et du coût des soins de santé et l’amélioration de l’accès aux médecins et aux traitements médicaux.

DeepMind de Google a montré que l’IA est capable de résoudre des problèmes fondamentaux de la biologie que les humains ont longtemps évités. Selon les recherches, l’IA peut accélérer la réalisation de tous les objectifs de développement durable des Nations Unies, faisant avancer l’humanité vers un avenir de meilleure santé, d’équité, de prospérité et de paix.

C’est le moment pour la communauté internationale de se rassembler, comme elle l’a fait il y a 50 ans lors de la Convention sur les armes biologiques, pour garantir que le développement de l’IA soit sûr et responsable. Si nous n’agissons pas bientôt, nous pourrions détruire le brillant avenir de l’IA ainsi que notre société actuelle.



Source

Comment (0)

No data
No data

Même sujet

Même catégorie

Luc Yen, un joyau vert caché
Diffuser les valeurs culturelles nationales à travers des œuvres musicales
Couleur du lotus de Hue
Hoa Minzy révèle des messages avec Xuan Hinh et raconte l'histoire des coulisses de « Bac Bling » provoquant une fièvre mondiale

Même auteur

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Ministère - Filiale

Locale

Produit