Los estafadores en línea no solo se hacen pasar por familiares, policías, etc., sino que también manipulan herramientas de inteligencia artificial (IA) para crear cientos de escenarios de estafa para atacar a los usuarios.
El experto en ciberseguridad Ngo Minh Hieu dijo que los estafadores manipulan la IA, creando cientos de escenarios de estafa en minutos - Foto: VU TUAN
Según la empresa social Chongluadao.vn, los estafadores han utilizado IA para generar malware, escribir scripts fraudulentos y transformar sonidos e imágenes a través de deepfake.
Según el experto en seguridad cibernética Ngo Minh Hieu (Hieu PC), representante de Chongluadao.vn, un truco peligroso es "engañar a la IA" para que cargue malware. "Crean archivos de audio o imágenes falsos, incorporando malware que la IA no reconoce. Cuando el sistema de IA lo procesa, el malware se activa y toma el control", dijo Hieu PC.
Por ejemplo, utilizó inteligencia artificial para falsificar voces e imágenes de familiares a través de FaceTime para engañar a las personas para que le transfirieran dinero.
Recientemente, la frecuencia de las estafas ha aumentado significativamente debido al apoyo de herramientas de IA. Al controlar la IA y usar la IA para estafar, los estafadores superan todas las barreras lingüísticas y geográficas. La falsificación es cada vez más sofisticada y peligrosa.
El experto Hieu PC analizó que no importa qué herramienta se utilice para cometer el fraude, los ciberdelincuentes siempre tienen un script. Esta es la información que su equipo recopiló al recibir y gestionar cientos de informes de estafas en línea.
Las formas más habituales de fraude son la suplantación de familiares, la suplantación de identidad de empleados de organismos estatales, policía, compañías eléctricas... Más sofisticados son los escenarios que atraen a las víctimas hacia trampas de inversión, realización de tareas o citas...
Los expertos en ciberseguridad afirman que lo primero que debemos hacer para evitar que manipulen nuestra imagen es no compartir imágenes personales en redes sociales en modo público. Las llamadas y mensajes que piden transferir dinero, hacer clic en enlaces o proporcionar códigos OTP son en un 99% estafas.
Trucos de hackers para atacar la IA
Según los expertos en ciberseguridad, un “ataque adversarial” es un truco que utilizan los hackers para “engañar” a la IA. Esta es una forma de información falsa que la IA puede malinterpretar o explotar. Como resultado, la IA carga malware en el sistema o ejecuta comandos dados por el estafador.
Los estafadores explotan esta debilidad para eludir la IA, especialmente los sistemas de protección de la IA (como el software antivirus, el reconocimiento de voz o los controles de transacciones bancarias).
Fuente: https://tuoitre.vn/lua-dao-mang-lua-ca-ai-tao-kich-ban-thao-tung-tam-ly-20250228163856719.htm
Kommentar (0)