Que pensez-vous de la tendance des pirates informatiques à « militariser » l’IA pour mener des cyberattaques et des fraudes ?

Dr Nguyen Tuan Khang : Selon l'indice X-Force Threat Intelligence 2024 d'IBM, l'Asie-Pacifique, y compris le Vietnam, est la région qui subit le plus de cyberattaques au monde en 2023. Parmi celles-ci, l'industrie manufacturière est la plus touchée par les cyberattaques.

La principale astuce des méchants reste les attaques de phishing ciblant les sujets vulnérables et exploitant les vulnérabilités pour installer des logiciels malveillants. En outre, la tendance émergente en 2024 est celle des cyberattaques impliquant l’intelligence artificielle (IA).

Le rapport de Wired souligne que de nombreux méchants utilisent l'IA générative pour guider les piratages, créer des chatbots frauduleux ou de fausses images et vidéos des visages et des voix d'autres personnes à l'aide de Deepfake.

Cependant, parallèlement à cette tendance, les systèmes de sécurité de l’information commencent également à intégrer des fonctionnalités d’IA, telles que WatsonX. L’intelligence artificielle peut être exploitée, mais elle peut également remplacer les humains dans l’analyse, la surveillance, l’identification des chiffres, la prédiction des scénarios d’attaque, améliorant ainsi les capacités de défense et minimisant les risques de sécurité de l’information.

W-nguyen-tuan-khang-ibm-1.jpg
L'expert en cybersécurité Nguyen Tuan Khang. Photo : Trong Dat

Les escroqueries Deepfake deviennent de plus en plus courantes. Avec le développement rapide de l’IA, à quel point ces attaques seront-elles dangereuses à l’avenir ?

Dr Nguyen Tuan Khang : Fondamentalement, Deepfake est une technologie qui aide les pirates à créer de fausses identités numériques, se faisant ainsi passer pour d’autres personnes. Le Deepfake sera un problème dangereux car cette technologie devient de plus en plus sophistiquée.

Pour lutter contre le Deepfake, la première chose à faire est de déterminer si l’image ou la voix d’une personne est générée par l’IA. Il n’existe actuellement aucun outil universel capable de détecter instantanément les Deepfakes, car les attaquants développent constamment de nouveaux modèles.

En plus de reconnaître les Deepfakes, il existe une autre technique pour les traiter, qui consiste à utiliser la technologie pour analyser le comportement. D’un point de vue organisationnel et commercial, il est nécessaire de développer un système qui combine ces deux techniques.

Récemment, des cyberattaques ont eu lieu au cours desquelles des pirates ont secrètement implanté du code malveillant dans les systèmes des entreprises. Le logiciel malveillant se cache et analyse toutes les activités, créant ainsi une fausse identité pour mener à bien ses intentions malveillantes. Avec le développement de la technologie Deepfake, couplé à la capacité de l’IA à créer des vidéos, ces types d’attaques deviendront beaucoup plus dangereuses à l’avenir.

Avec l’escalade des cyberattaques Deepfake, comment pouvons-nous protéger les personnes âgées, les enfants et les autres groupes vulnérables des escrocs ?

Dr Nguyen Tuan Khang : Les personnes âgées et les enfants sont souvent attaqués par des escrocs utilisant une technique appelée ingénierie sociale. Il s’agit d’un terme qui décrit les attaques par la manipulation du comportement humain.

Les pirates informatiques peuvent désormais utiliser l’IA combinée à la collecte, à l’exploration et à l’analyse de données pour identifier les personnes susceptibles d’être escroquées et trouver ensuite des moyens d’attaquer. En plus de sensibiliser le public, nous devons également accepter qu’il y aura des situations où les utilisateurs seront trompés et nous devons utiliser la technologie pour détecter et prévenir cela.

W-fraude-en-ligne-1.jpg
Avertissement concernant des cas d'usurpation d'identité de policiers pour frauder des transferts d'argent par la police du quartier de Thanh Luong (Hanoï). Photo : Trong Dat

Récemment, un employé de banque a soupçonné qu'une vieille femme venue transférer de l'argent présentait des signes d'escroquerie. Cette personne a alors arrêté l’incident à temps et l’a signalé aux autorités. Les systèmes informatiques des banques doivent désormais disposer de technologies capables de remplacer les humains dans ces tâches.

Le rôle de la technologie est que même si la personne qui transfère l’argent est connue, le système l’empêchera toujours s’il soupçonne que ce comportement est manipulé par quelqu’un d’autre. Ces outils sont appelés systèmes anti-fraude et anti-contrefaçon.

Est-il temps pour le Vietnam d’imposer des sanctions pour gérer l’IA et d’encadrer la recherche, le développement et l’utilisation de l’IA ?

Dr Nguyen Tuan Khang : Les sanctions contre la gestion de l’IA sont évoquées depuis longtemps, mais de nombreuses questions controversées subsistent encore. Par exemple, le parking de mon quartier dispose d’un système d’IA qui reconnaît les plaques d’immatriculation, mais il y a encore des vols. La controverse a alors commencé sur la question de savoir à qui incombait la faute. Qui est responsable, le propriétaire de l'appartement, l'agent de sécurité ou le développeur du système d'IA ?

Depuis lors, le bâtiment a modifié ses règles, stipulant que les résidents peuvent choisir d'utiliser l'IA de reconnaissance des plaques d'immatriculation pour plus de commodité, mais ils doivent accepter les risques. Ceux qui sont d'accord pourront utiliser la porte automatique, ceux qui ne l'acceptent pas devront garer leur voiture à l'ancienne. Nous devons avoir de telles sanctions.

De même, IBM a développé un système d’IA pour aider à prévenir le cancer. Lorsque le système prescrit un médicament mais que le patient ne peut toujours pas être sauvé après l’avoir pris, est-ce la faute du médecin ou celle de l’intelligence artificielle ?

Je pense que les sanctions pour l’IA doivent être spécifiquement réglementées, en indiquant clairement ce qui peut et ne peut pas être fait lors du développement d’applications d’IA. Pour rendre le monde plus sûr, la sanction la plus élémentaire que nous puissions appliquer est d’exiger que les transferts d’argent importants soient authentifiés biométriquement. Dans une telle situation, les personnes qui perdent leurs informations d’identité peuvent éviter complètement de perdre de l’argent.

Merci monsieur.

Les escroqueries Deepfake, les faux visages et les fausses voix augmenteront en 2024 Selon les prévisions du VSEC, les cyberattaques utilisant l'IA, y compris les escroqueries Deepfake visant à falsifier des visages et des voix, augmenteront en 2024.