El lunes, la Oficina del Fiscal General de New Hampshire anunció que estaba iniciando una investigación sobre posible manipulación de votantes. Esto se produce después de las quejas sobre una voz falsa, que suena idéntica a la del presidente estadounidense Joe Biden, que insta a los votantes a no votar en las primarias del estado.
Los investigadores también advirtieron sobre el uso de audio deepfake para imitar a políticos y líderes, con casos destacados ocurridos en 2023 en el Reino Unido, India, Nigeria, Sudán, Etiopía y Eslovaquia.
Una persona vota en las elecciones primarias en New Hampshire, EE.UU. Foto: Getty
Los expertos afirman que el audio deepfake se ha convertido en una forma popular de desinformación debido al surgimiento de una gama de herramientas de inteligencia artificial baratas y efectivas por parte de empresas emergentes. Microsoft también ha desarrollado un nuevo modelo de IA que puede replicar una voz a partir de sólo tres segundos de grabación.
“Cuando se trata de manipulación visual, todo el mundo está familiarizado con Photoshop o al menos sabe que existe”, dijo Henry Ajder, experto en inteligencia artificial y deepfake y consultor de Adobe, Meta y EY. Hay muy poca conciencia de cómo se puede manipular el material de audio, por lo que para mí eso realmente nos deja vulnerables”.
En septiembre, NewsGuard, un sistema que califica la calidad y confiabilidad de los sitios web de noticias, descubrió una red de cuentas de TikTok que se hacían pasar por sitios de noticias legítimos y utilizaban contenido generado por IA para difundir teorías conspirativas y desinformación política. Las grabaciones de audio deepfake, incluida la del expresidente estadounidense Barack Obama, han atraído cientos de millones de visitas.
Las voces en off falsas parecen haber sido generadas por una herramienta proporcionada por ElevenLabs, respaldada por Andreessen Horowitz, mientras que los clips han obtenido cientos de millones de visitas, dijo NewsGuard.
“Más del 99% de los usuarios de nuestra plataforma crean contenido interesante, creativo y útil, pero reconocemos que hay casos de mal uso y hemos desarrollado e introducido continuamente protecciones para limitarlos”, afirmó ElevenLabs.
ElevenLabs, fundada hace dos años por los ex empleados de Google y Palantir Piotr Dabkowski y Mati Staniszewski, ofrece herramientas rudimentarias de generación de audio con IA de forma gratuita con solo un clic. Los planes de suscripción varían desde $1 al mes hasta $330 al mes y más para aquellos que buscan servicios más complejos.
El año pasado, las agencias de inteligencia estadounidenses advirtieron en un informe que “las estafas de IA personalizadas han aumentado significativamente debido al lanzamiento de modelos de clonación de voz de IA sofisticados y bien entrenados”.
Además de las estafas con motivaciones económicas, los expertos políticos ahora están dando la voz de alarma sobre clips de audio virales deepfake, así como sobre el uso de deepfakes para llamadas automáticas o campañas. “Se puede crear una campaña de desinformación poderosa y generalizada apuntando a los teléfonos”, dijo AJ Nash, vicepresidente y miembro destacado de inteligencia del grupo de ciberseguridad ZeroFox.
Algunas de estas empresas han buscado proactivamente otras formas de combatir la desinformación. Microsoft ha publicado una declaración ética, instando a los usuarios a denunciar cualquier uso indebido de su motor de audio de inteligencia artificial. ElevenLabs ha construido sus propias herramientas de detección para identificar las grabaciones generadas por su sistema.
Durante las elecciones de 2023 en Nigeria, un clip manipulado por inteligencia artificial se volvió viral en las redes sociales "supuestamente sugiriendo que un candidato de la oposición estaba planeando manipular la votación", según el grupo de derechos humanos Freedom House.
En Eslovaquia, una grabación de audio falsa del candidato opositor Michal Šimečka aparentemente conspirando para manipular las elecciones se volvió viral pocos días antes de las elecciones presidenciales del país en septiembre.
“El deepfake de New Hampshire es un recordatorio de las muchas formas en que los deepfakes pueden engañar y confundir”, dijo Robert Weissman, presidente del grupo de defensa del consumidor sin fines de lucro Public Citizen. Ha llegado el momento de los deepfakes políticos. Los responsables políticos deben actuar rápidamente para establecer salvaguardas o nos enfrentaremos al caos electoral”.
Mai Anh (según FT)
Fuente
Kommentar (0)