サイバーセキュリティ企業SlashNextの報告によると、サイバー犯罪者はChatGPTのような生成型人工知能(AI)ツールを活用してフィッシングメールを作成し、企業などを騙している。北米のサイバーセキュリティ専門家300人以上を対象にした調査では、半数近くが自社を狙ったフィッシング攻撃に遭遇したことがあると答え、77%が自分自身も悪意のある攻撃者の標的になったことがあると答えています。
スラッシュネクストのCEO、パトリック・ハー氏は、この調査結果は、生成AIが詐欺の増加に寄与しているのではないかという懸念を強めるものだと述べた。犯罪者は成功率を高めるために、マルウェアやソーシャルエンジニアリング詐欺を開発するために AI を使用することがよくあります。
報告によると、毎日平均31,000件のオンライン詐欺が発生しています。
ハー氏はさらに、ChatGPTが2022年後半に開始される時期は、SlashNextでフィッシング攻撃が急増した時期と一致すると付け加えた。
米連邦捜査局(FBI)のインターネット犯罪報告書によると、企業に偽のメールを送信する手口により、2022年までに約27億ドルの被害が発生した。
生成AIがサイバー犯罪に実際にどのような影響を与えるかについては議論があるが、ハー氏はChatGPTのようなチャットボットがサイバー攻撃の「武器」に転用されていると考えている。たとえば、7 月に SlashNext の研究者は、WormGPT と FraudGPT と呼ばれる 2 つの悪意のあるチャットボットを発見しました。これらは、詐欺師が高度なフィッシング キャンペーンを実行するためのツールであると考えられていました。
エンタープライズ・マネジメント・アソシエイツの研究ディレクター、クリス・ステフェン氏は、ハッカーは詐欺を働くために生成AIツールと自然言語処理(NLP)モデルを利用していると述べた。 AI を使用して古い情報や記事を分析し、政府や企業の文書を模倣することで、フィッシング メールは非常に説得力のあるものになり、見分けることが難しくなります。
攻撃の増加に対処するには、セキュリティ意識を高め、疑わしい電子メールや活動に対して警戒する必要があります。もう 1 つの解決策は、詐欺を防ぐために AI と機械学習を使用した電子メール フィルタリング ツールを導入することです。組織は、定期的なセキュリティ監査を実施し、従業員のトレーニング中にシステムの脆弱性と弱点を特定し、既知の問題に迅速に対処して攻撃のリスクを軽減する必要もあります。
[広告2]
ソースリンク
コメント (0)