情報セキュリティ部門は最近、ハイテクビデオおよび画像詐欺が継続的に発生していることについて警告を発しました。
そのため、サイバー犯罪者が人々の公開画像や動画を利用して編集、カットし、偽の動画で脅迫するという状況が、当局から広く国民に警告されている。
人物の音声や画像を高精度で再現できるディープフェイク技術を使用することで、犯罪者はオンライン会議でリーダーになりすましたり、ビデオや通話を作成して金融詐欺を働いたりすることができます。
さらに、こうした詐欺は、緊急性、恐怖、権力などの心理的要因を悪用することが多く、被害者は真偽を慎重に確認せずに性急に行動してしまいます。
ディープフェイクは金融投資詐欺だけに限りません。もう一つの例は恋愛詐欺で、ディープフェイクを使って架空のキャラクターを作り、被害者とビデオ通話でやりとりするものです。詐欺師は被害者の信頼を得た後、緊急事態、旅費、またはローンを賄うために送金を要求します。
上記の状況を踏まえ、情報セキュリティ局は、ソーシャル ネットワーク上の著名人による投資アドバイスには注意するよう推奨しています。知らないテキスト、電子メール、または電話には注意してください。動画内の不自然な表情に注意してください。
また、悪意のある人物が画像、動画、音声などの情報を盗む事態を避けるために、ソーシャル ネットワーク上で個人情報に関連するコンテンツを投稿することを制限する必要があります。また、個人情報を保護するためにアカウントを非公開に設定してください。
ベトナムサイバー詐欺防止プロジェクト(Chongluadao.vn)の共同設立者でサイバーセキュリティ専門家のゴ・ミン・ヒエウ氏は、ダイ・ドアン・ケット紙のインタビューで、詐欺目的でビデオ通話を偽造するためにAIのディープフェイク技術(ディープシミュレーション)を使用することは依然として複雑であると語った。被験者はこの技術を利用して「獲物」の信頼性を高めます。
具体的には、被験者は、以前に「盗まれた」画像や動画から被害者に積極的にビデオ通話をかけ、技術的に加工したり、音声を歪めたり、画像を偽造したりして、被害者の信頼を得ようとします。
通常、これらの通話は非常に短く、数秒しか続きません。その後、詐欺師はネットワークが不安定である、路上にいるなどの言い訳を使って、被害者に詐欺師の要求を満たすように求めます。
専門家は、近い将来、サイバー詐欺における AI の利用が大幅に増加する可能性があると警告している。したがって、人々は積極的に警戒心を高めなければなりません。特に、奇妙なメッセージ、ビデオ通話、リンクを受信した場合。
この専門家の分析によると、リアルタイム通話中の現在のディープフェイク人工知能(AI)アルゴリズムは、発信者が左を向いたり、右を向いたり、立ち上がったりすると対応できなくなるとのことだ...
こうした電話を受けるときに特に注意しなければならない弱点は、歯です。したがって、現在の AI アルゴリズムでは、なりすましの対象となる人物の歯を再現することはできません。
ディープフェイクを使用すると、人の口を開けた画像には歯がなかったり、あごが 3 つ、あるいは 4 つあるように見える人もいます。したがって、歯の特徴は、ディープフェイクを使用した偽の通話で最も認識しやすい要素です。
「スピードを落として」すぐに要求に応じないことが、詐欺の罠に陥らないための前提条件です。ソーシャル ネットワーク経由でメッセージや電話を受けた場合、最短 30 秒以内に親戚に直接電話して、誰が連絡してきたのかを確認するか、直接会う必要があります。
ソーシャル ネットワーク上で親族になりすまして詐欺行為や財産の横領を行っている疑いがある場合は、直ちに最寄りの警察機関に通報し、迅速な支援と対応を受ける必要があります。
[広告2]
出典: https://daidoanket.vn/chuyen-gia-chi-meo-nhan-biet-cuoc-goi-deepfake-lua-dao-10300910.html
コメント (0)