¿Qué opinas sobre la tendencia de los hackers a utilizar la IA como arma para llevar a cabo ciberataques y fraudes?
Dr. Nguyen Tuan Khang: Según el Índice de Inteligencia de Amenazas X-Force 2024 de IBM, Asia-Pacífico, incluido Vietnam, es la región que sufrirá más ataques cibernéticos en el mundo en 2023. De los cuales, la manufactura es la industria más afectada por los ataques cibernéticos.
El truco principal de los malos siguen siendo los ataques de phishing dirigidos a sujetos vulnerables y que explotan las vulnerabilidades para instalar malware. Además, la tendencia emergente en 2024 son los ciberataques que involucran inteligencia artificial (IA).
El informe de Wired señala que muchos delincuentes están usando IA generativa para ayudar a guiar ataques, crear chatbots fraudulentos o falsificar imágenes y videos de caras y voces de otras personas usando Deepfake.
Sin embargo, junto con esta tendencia, los sistemas de seguridad de la información también están comenzando a incorporar funciones de IA, como Watsonx. La inteligencia artificial se puede explotar, pero también puede reemplazar a los humanos en el análisis, monitoreo, identificación de números, predicción de escenarios de ataque, mejorando así las capacidades de defensa y minimizando los riesgos de seguridad de la información.
Las estafas deepfake son cada vez más comunes. Con el rápido desarrollo de la IA, ¿qué tan peligrosos serán estos ataques en el futuro?
Dr. Nguyen Tuan Khang: Básicamente, Deepfake es una tecnología que ayuda a los piratas informáticos a crear identidades digitales falsas, haciéndose pasar por otras personas. Deepfake será un problema peligroso porque esta tecnología se está volviendo cada vez más sofisticada.
Para combatir el Deepfake, lo primero que hay que hacer es determinar si la imagen o la voz de una persona está generada por IA. Actualmente no existe una herramienta universal que pueda detectar Deepfakes al instante porque los atacantes están constantemente desarrollando nuevos modelos.
Además de reconocer los Deepfakes, existe otra técnica para combatirlos, que es utilizar tecnología para analizar el comportamiento. Desde una perspectiva organizacional y empresarial, es necesario desarrollar un sistema que combine ambas técnicas.
Recientemente, se han producido ataques cibernéticos en los que los piratas informáticos han implantado en secreto códigos maliciosos en los sistemas corporativos. El malware acecha y analiza toda la actividad, creando así una identidad falsa para llevar a cabo sus intenciones maliciosas. Con el desarrollo de la tecnología Deepfake, junto con la capacidad de la IA para crear vídeos, este tipo de ataques se volverán mucho más peligrosos en el futuro.
Con la escalada de ciberataques Deepfake, ¿cómo podemos proteger a los ancianos, los niños y otros grupos vulnerables de los estafadores?
Dr. Nguyen Tuan Khang: Los ancianos y los niños a menudo son atacados por estafadores que utilizan una técnica llamada ingeniería social. Este es un término que describe ataques a través de la manipulación del comportamiento humano.
Los piratas informáticos ahora pueden usar IA en combinación con la recopilación, extracción y análisis de datos para identificar a las personas que probablemente sean estafadas y luego encontrar formas de atacar. Además de concienciar al público, también debemos aceptar que habrá situaciones en las que los usuarios sean engañados, y debemos utilizar la tecnología para detectarlo y prevenirlo.
Recientemente, hubo un caso en el que un empleado bancario sospechó que una anciana que acudió a transferir dinero tenía signos de haber sido estafada. Esta persona lo detuvo a tiempo y lo comunicó a las autoridades. Los sistemas informáticos de los bancos ahora deben contar con tecnología para reemplazar a los humanos en dichas tareas.
El papel de la tecnología es que, incluso si se conoce a la persona que transfiere el dinero, el sistema lo impedirá si sospecha que ese comportamiento está siendo manipulado por otra persona. Estas herramientas se denominan sistemas antifraude y antifalsificación.
¿Es hora de que Vietnam aplique sanciones para gestionar la IA y poner la investigación, el desarrollo y el uso de la IA en un marco?
Dr. Nguyen Tuan Khang: Las sanciones por la gestión de la IA se han mencionado durante mucho tiempo, sin embargo, todavía hay muchas cuestiones controvertidas. Por ejemplo, el estacionamiento de mi zona tiene un sistema de inteligencia artificial que reconoce las matrículas, pero aún así hay robos. Entonces empezó la polémica sobre de quién fue la culpa. ¿Quién es responsable, el propietario del apartamento, el guardia de seguridad o el desarrollador del sistema de inteligencia artificial?
Desde entonces, el edificio ha cambiado sus reglas, estableciendo que los residentes pueden optar por utilizar IA para reconocer las matrículas para su comodidad, pero deben aceptar los riesgos. Los que estén de acuerdo podrán utilizar la puerta automática, los que no acepten tendrán que aparcar su coche a la antigua usanza. Debemos tener tales sanciones.
De manera similar, IBM desarrolló una vez un sistema de inteligencia artificial para ayudar a prevenir el cáncer. Cuando el sistema prescribe un medicamento pero aún así el paciente no puede salvarse después de tomarlo, ¿es culpa del médico o de la inteligencia artificial?
Creo que las sanciones a la IA deben regularse específicamente, estableciendo claramente qué se puede y qué no se puede hacer al desarrollar aplicaciones de IA. Para que el mundo sea más seguro, la sanción más básica que podemos imponer es exigir que las grandes transferencias de dinero estén autenticadas biométricamente. En tal situación, las personas que pierden su información de identidad pueden evitar por completo perder dinero.
Gracias señor.
Fuente
Kommentar (0)