La Fuerza Aérea de Estados Unidos negó el 2 de junio los informes de que realizó una simulación en la que un vehículo aéreo no tripulado (UAV) bajo el control de inteligencia artificial (IA) decidió “matar” a su operador para evitar que interfiriera con su misión, según USA Today.
Las especulaciones surgieron el mes pasado. En una conferencia en Londres, el coronel Tucker Hamilton dijo que un UAV controlado por IA utilizó “estrategias extremadamente inesperadas para lograr sus objetivos”.
Un dron MQ-9 Reaper de la Fuerza Aérea de EE. UU. en la base aérea de Kandahar, en Afganistán, en 2018.
Según él, la prueba simuló un UAV operado por IA que recibía la orden de destruir el sistema de defensa aérea de un oponente. Luego, cuando el operador le ordenó ignorar el objetivo, el UAV atacó y mató al operador por interferir con su objetivo principal.
Pero en realidad nadie fue atacado de ese modo. En una entrevista con Business Insider , la portavoz de la Fuerza Aérea de Estados Unidos, Ann Stefanek, dijo que no se llevó a cabo tal simulación.
La aterradora advertencia del exdirector ejecutivo de Google: la IA tiene el poder de “matar” a la humanidad
“La Fuerza Aérea no ha llevado a cabo ninguna de estas actividades y mantiene su compromiso con el uso ético y responsable de la tecnología de IA”, afirmó el portavoz, señalando que “parece que los comentarios del coronel fueron sacados de contexto”.
Tras el comunicado de la Fuerza Aérea estadounidense, Hamilton aclaró que se había "equivocado" en su presentación en Londres. Según él, la simulación anterior es sólo un experimento hipotético. La Royal Aeronautical Society (Reino Unido), que organizó la conferencia, no respondió a las solicitudes de comentarios.
[anuncio_2]
Enlace de origen
Kommentar (0)