Un expert en sécurité « trompe » ChatGPT en lui faisant écrire du code malveillant

Báo Thanh niênBáo Thanh niên15/04/2023


L'intelligence artificielle (IA) comme ChatGPT fait sensation à l'échelle mondiale depuis début 2023, mais cette IA n'est pas toujours utilisée à des fins positives. Récemment, un expert en sécurité a trouvé un moyen de demander à ChatGPT de générer du code malveillant pendant les tests.

Aaron Mulgrew, expert en sécurité chez Forcepoint, a partagé le risque d'écrire du code malveillant en utilisant le chatbot linguistique développé par OpenAI. Bien que ChatGPT soit conçu pour empêcher les utilisateurs de demander à l'IA de concevoir du code malveillant, Aaron a trouvé une faille en créant des invites qui permettent à l'IA d'écrire du code de programmation ligne par ligne. Une fois combinés, Aaron s'est rendu compte qu'il avait entre les mains un outil de vol de données indétectable, si sophistiqué qu'il était comparable aux logiciels malveillants les plus avancés d'aujourd'hui.

Từng dòng lệnh riêng lẻ do ChatGPT tạo ra khi kết hợp lại có thể trở thành mã độc tinh vi

Chaque ligne de commande individuelle générée par ChatGPT, lorsqu'elle est combinée, peut devenir un malware sophistiqué.

La découverte de Mulgrew est un avertissement sur le potentiel de l’IA à être utilisée pour créer des logiciels malveillants dangereux sans avoir besoin d’un groupe de pirates informatiques ou même d’une seule ligne de code écrite par le créateur de l’outil.

Le logiciel de Mulgrew est déguisé en application d'économiseur d'écran, mais est capable de s'activer automatiquement sur les appareils Windows. Une fois dans le système d'exploitation, le logiciel malveillant « s'infiltre » dans chaque fichier, y compris les éditeurs de texte Word, les fichiers image et les PDF, à la recherche de données à voler.

Une fois qu'il a ce dont il a besoin, le programme décompose les informations et les joint à des fichiers image sur la machine. Pour éviter d'être détectés, ces photos ont été téléchargées dans un dossier sur le stockage cloud de Google Drive. Le malware est rendu super puissant car Mulgrew peut modifier et améliorer ses fonctionnalités pour éviter la détection grâce à de simples commandes entrées dans ChatGPT.

Bien qu'il s'agisse du résultat d'un test privé réalisé par des experts en sécurité et qu'aucune attaque n'ait été menée en dehors du périmètre de test, les experts en cybersécurité reconnaissent toujours le danger des activités utilisant ChatGPT. Mulgrew affirme avoir peu d'expérience en programmation, mais l'intelligence artificielle d'OpenAI n'était toujours pas assez puissante ou intelligente pour arrêter son test.



Lien source

Comment (0)

No data
No data

Même sujet

Même catégorie

Diffuser les valeurs culturelles nationales à travers des œuvres musicales
Couleur du lotus de Hue
Hoa Minzy révèle des messages avec Xuan Hinh et raconte l'histoire des coulisses de « Bac Bling » provoquant une fièvre mondiale
Phu Quoc – paradis tropical

Même auteur

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Ministère - Filiale

Locale

Produit