L'armée de l'air américaine a démenti le 2 juin les informations selon lesquelles elle aurait mené une simulation dans laquelle un véhicule aérien sans pilote (UAV) sous le contrôle de l'intelligence artificielle (IA) aurait décidé de « tuer » son opérateur pour l'empêcher d'interférer avec sa mission, selon USA Today.
Des spéculations ont fait surface le mois dernier. Lors d’une conférence à Londres, le colonel Tucker Hamilton a déclaré qu’un drone contrôlé par l’IA utilisait « des stratégies extrêmement inattendues pour atteindre ses objectifs ».
Un drone MQ-9 Reaper de l'US Air Force sur la base aérienne de Kandahar en Afghanistan en 2018.
Selon lui, le test simulait un drone piloté par l'IA recevant l'ordre de détruire le système de défense aérienne d'un adversaire. Ensuite, lorsque l'opérateur a ordonné d'ignorer la cible, le drone a attaqué et tué l'opérateur pour avoir interféré avec sa cible principale.
Mais en réalité, personne n’a été attaqué de cette façon. Dans une interview accordée à Business Insider , la porte-parole de l'US Air Force, Ann Stefanek, a déclaré qu'aucune simulation de ce type n'avait été réalisée.
L'avertissement terrifiant de l'ancien PDG de Google : l'IA a le pouvoir de « tuer » l'humanité
« L'armée de l'air n'a mené aucune activité de ce type et reste attachée à l'utilisation éthique et responsable de la technologie de l'IA », a déclaré le porte-parole, notant qu'« il semble que les commentaires du colonel aient été sortis de leur contexte ».
Suite à la déclaration de l'US Air Force, M. Hamilton a précisé qu'il s'était "mal exprimé" lors de sa présentation à Londres. Selon lui, la simulation ci-dessus n’est qu’une expérience hypothétique. La Royal Aeronautical Society (Royaume-Uni), qui a organisé la conférence, n'a pas répondu aux demandes de commentaires.
Lien source
Comment (0)