La inteligencia artificial (IA) como ChatGPT ha sido una sensación mundial desde principios de 2023, pero esta IA no siempre se utiliza con fines positivos. Recientemente, un experto en seguridad encontró una forma de pedirle a ChatGPT que generara código malicioso durante las pruebas.
Aaron Mulgrew, experto en seguridad de la empresa Forcepoint, compartió el riesgo de escribir código malicioso utilizando el lenguaje de chatbot desarrollado por OpenAI. Aunque ChatGPT está diseñado para evitar que los usuarios le pidan a la IA que diseñe código malicioso, Aaron encontró una laguna al crear indicaciones que permiten a la IA escribir código de programación línea por línea. Al combinarlos, Aaron se dio cuenta de que tenía en sus manos una herramienta de robo de datos indetectable, tan sofisticada que era comparable al malware más avanzado de la actualidad.
Cada línea de comando individual generada por ChatGPT, al combinarse, puede convertirse en un malware sofisticado.
El descubrimiento de Mulgrew es una advertencia sobre el potencial de utilizar la IA para crear malware peligroso sin necesidad de que un grupo de piratas informáticos o incluso que el creador de la herramienta escriba una sola línea de código.
El software de Mulgrew está disfrazado como una aplicación de protector de pantalla, pero es capaz de activarse automáticamente en dispositivos basados en Windows. Una vez en el sistema operativo, el malware "se infiltra" en todos los archivos, incluidos los editores de texto de Word, archivos de imagen y PDF, en busca de datos para robar.
Una vez que tiene lo que necesita, el programa desglosa la información y la adjunta a archivos de imagen en la máquina. Para evitar ser detectadas, estas fotos se cargaron en una carpeta en el almacenamiento en la nube de Google Drive. El malware se vuelve súper poderoso porque Mulgrew puede modificar y mejorar sus funciones para evitar ser detectado a través de comandos simples ingresados en ChatGPT.
Aunque este es el resultado de una prueba privada realizada por expertos en seguridad y no se han llevado a cabo ataques fuera del ámbito de la prueba, los expertos en ciberseguridad aún reconocen el peligro de las actividades que utilizan ChatGPT. Mulgrew afirma tener poca experiencia en programación, pero la inteligencia artificial de OpenAI todavía no era lo suficientemente potente ni inteligente como para detener su prueba.
Enlace de origen
Kommentar (0)