L'intelligence artificielle (IA) comme ChatGPT fait sensation à l'échelle mondiale depuis début 2023, mais cette IA n'est pas toujours utilisée à des fins positives. Récemment, un expert en sécurité a trouvé un moyen de demander à ChatGPT de générer du code malveillant pendant les tests.
Aaron Mulgrew, expert en sécurité chez Forcepoint, a partagé le risque d'écrire du code malveillant en utilisant le chatbot linguistique développé par OpenAI. Bien que ChatGPT soit conçu pour empêcher les utilisateurs de demander à l'IA de concevoir du code malveillant, Aaron a trouvé une faille en créant des invites qui permettent à l'IA d'écrire du code de programmation ligne par ligne. Une fois combinés, Aaron s'est rendu compte qu'il avait entre les mains un outil de vol de données indétectable, si sophistiqué qu'il était comparable aux logiciels malveillants les plus avancés d'aujourd'hui.
Chaque ligne de commande individuelle générée par ChatGPT, lorsqu'elle est combinée, peut devenir un malware sophistiqué.
La découverte de Mulgrew est un avertissement sur le potentiel de l’IA à être utilisée pour créer des logiciels malveillants dangereux sans avoir besoin d’un groupe de pirates informatiques ou même d’une seule ligne de code écrite par le créateur de l’outil.
Le logiciel de Mulgrew est déguisé en application d'économiseur d'écran, mais est capable de s'activer automatiquement sur les appareils Windows. Une fois dans le système d'exploitation, le logiciel malveillant « s'infiltre » dans chaque fichier, y compris les éditeurs de texte Word, les fichiers image et les PDF, à la recherche de données à voler.
Une fois qu'il a ce dont il a besoin, le programme décompose les informations et les joint à des fichiers image sur la machine. Pour éviter d'être détectés, ces photos ont été téléchargées dans un dossier sur le stockage cloud de Google Drive. Le malware est rendu super puissant car Mulgrew peut modifier et améliorer ses fonctionnalités pour éviter la détection grâce à de simples commandes entrées dans ChatGPT.
Bien qu'il s'agisse du résultat d'un test privé réalisé par des experts en sécurité et qu'aucune attaque n'ait été menée en dehors du périmètre de test, les experts en cybersécurité reconnaissent toujours le danger des activités utilisant ChatGPT. Mulgrew affirme avoir peu d'expérience en programmation, mais l'intelligence artificielle d'OpenAI n'était toujours pas assez puissante ou intelligente pour arrêter son test.
Lien source
Comment (0)