Una investigación de Google DeepMind dice que crear imágenes, videos y audio que se hacen pasar por humanos es casi dos veces más común que crear información errónea utilizando herramientas como los chatbots de IA.
El análisis encontró que el objetivo más común de los actores que abusan de la IA sintética es moldear o influir en la opinión pública. Esa cifra representa el 27% del uso, lo que genera preocupación sobre cómo los deepfakes podrían influir en las elecciones en todo el mundo este año.
Falsificaciones del primer ministro británico, Rishi Sunak, han aparecido en TikTok e Instagram antes de las elecciones generales. Foto: AFP
En los últimos meses han aparecido en TikTok, X e Instagram deepfakes del canciller británico Rishi Sunak y otros líderes mundiales. Los votantes británicos acudirán a las urnas la próxima semana en elecciones generales.
Existe la preocupación de que, a pesar de los esfuerzos de las redes sociales por etiquetar o eliminar dicho contenido, el público podría no reconocerlo como falso y que su difusión podría influir en los votantes.
Ardi Janjeva, investigadora asociada del Instituto Alan Turing, calificó de "particularmente relevantes" los hallazgos del documento: que la información pública generada por IA puede "distorsionar nuestra comprensión compartida de la realidad sociopolítica".
“Aunque no estamos seguros del impacto de los deepfakes en el comportamiento electoral, esta distorsión puede ser difícil de detectar en el corto plazo y plantea riesgos a largo plazo para la democracia”, añadió Janjeva.
“Ha habido mucha preocupación en torno a los ciberataques bastante sofisticados que se están creando utilizando estas herramientas”, dijo la investigadora Nahema Marchal, autora principal del estudio en Google DeepMind.
Investigadores de Google DeepMind y Jigsaw analizaron alrededor de 200 casos de uso indebido de IA entre enero de 2023 y marzo de 2024, tomados de las redes sociales X y Reddit, así como de blogs en línea e informes de medios de comunicación sobre uso indebido.
La segunda motivación más común detrás del abuso es la monetización, que incluye la creación de fotografías de desnudos de personas reales o el uso de IA para generar una variedad de contenido, como artículos de noticias falsos. La mayoría de los escenarios utilizan herramientas accesibles que “requieren una experiencia técnica mínima”, lo que significa que muchos actores maliciosos pueden abusar de la IA creativa.
Ngoc Anh (según el FT)
Fuente: https://www.congluan.vn/nghien-cuu-deepfake-chinh-tri-dung-dau-trong-danh-sach-su-dung-ai-doc-hai-post300851.html
Kommentar (0)