2024年5月、OpenAIのGPT-4o、GoogleのGemini 1.5 Proなど、世界的に有名なテクノロジー大手が次々と人工知能(AI)の新バージョンを発表し、ユーザーエクスペリエンスを最適化するために多くの「超スマート」機能が追加されました。しかし、この技術が多くのオンライン詐欺のシナリオでサイバー犯罪者によって使用されていることは否定できません。
リスクの増大
情報通信省のファム・ドゥック・ロン副大臣は最近の会議で、サイバー攻撃はますます巧妙かつ複雑になり、継続的に増加しているという事実を指摘した。特に AI のサポートがある場合、ユーザーが直面するリスクは飛躍的に増加します。 「AI技術はサイバー犯罪者によって、新たなマルウェアや、新しく洗練されたフィッシング攻撃を簡単に作成するために使用されている」とファム・ドゥック・ロン副大臣は警告した。
ベトナム情報通信省情報セキュリティ局の報告書によると、AIに関連するサイバーセキュリティリスクは世界中で1兆米ドル以上の損害を引き起こしており、そのうちベトナムだけで8兆~10兆ベトナムドンに上ります。現在最も一般的な用途は、詐欺目的で声や顔を偽造するために AI を使用することです。 2025 年までに、1 秒あたり約 3,000 件の攻撃、1 秒あたり 12 件のマルウェア、1 日あたり 70 件の新しい脆弱性と弱点が発生すると予測されています。
アプリケーションのセキュリティサポートを専門とするBShieldのディレクター、グエン・ヒュー・ザップ氏によると、AIの進歩により偽の画像や音声を作成することは難しくないとのこと。詐欺師は、ソーシャル ネットワークに投稿された公開情報から、または「権威」の名を騙ったオンライン就職面接や電話などのトリックを通じて、ユーザー データを簡単に収集できます。 BShield が実施したシミュレーションでは、詐欺師はビデオ通話で入手した顔を CCCD 用紙に載せ、動いている人の体に融合させて eKYC ツールを騙し、システムに本物の人物として認識させることができるという。
ディープフェイク技術を使った詐欺の手法は増加しており、より巧妙になっている。写真:LE TINH
ユーザーの視点から見ると、ホーチミン市の IT スペシャリストである Nguyen Thanh Trung 氏は、悪意のある人物が chatGPT を利用して、銀行や評判の良い組織からの実際のメールと似た内容と文体の詐欺メールを作成する可能性があることを懸念しています。これらのメールにはマルウェアが添付されている可能性があり、ユーザーがクリックすると、確実にデータが盗まれ、資産が盗まれます。 「AIソフトウェアはますます改良されており、本物の人物と95%類似した顔と声を持つ偽のビデオを作成できる。ジェスチャーはリアルタイムで変化するため、視聴者がそれを検知するのは非常に困難だ」とチュン氏は述べた。
まもなく法の回廊が完成
セキュリティ専門家のファム・ディン・タン氏は、ハイテク詐欺のリスクを抑えるには、ユーザーはAIに関する知識を定期的に更新し、出所不明のリンクをクリックしないようにする必要があると指摘した。企業では、データのセキュリティとシステムの運用を確保するために予算を割り当てる必要があります。企業のスタッフは、システムで発生する実際の脆弱性にアクセスし、サイバー攻撃の種類を識別する能力を高めるために、徹底的なトレーニングを受ける必要もあります。
AI開発部門の不正防止プロジェクトの責任者であるタ・コン・ソン氏は、AIは極めてインテリジェントなサポート機能により、ユーザーの生活や企業、機関、部門の業務に深く浸透していると語った。特に、AI テクノロジーは現在非常にアクセスしやすく、使いやすいため、悪意のある人物がそれを簡単に不正目的で利用できる状況が生まれます。 「詐欺師も攻撃方法を常に変えているため、ユーザーはそれを防ぐ方法を知るために定期的に情報を更新する必要がある」と孫氏は勧めた。
専門家によると、最近アップグレードされたGPT-4oとGemini 1.5 Proモデルは、AIの知能に限界がないことを証明したという。したがって、企業に AI 不正防止ツールやソリューションの開発を奨励することに加えて、管理機関はトレンドに先んじるために AI に関する法的枠組みを早急に完成させる必要があります。
国家人口データセンター副所長のグエン・アン・トゥアン中佐は、AIの開発、生産、応用、使用の過程における国内外のサービス提供者の倫理と責任を規定する文書を早急に発行する必要があると述べた。同時に、AI サービスを利用、適用、接続、提供するシステムに対する技術基準に関する具体的な規制も必要です。 「AIリスクに対抗するためには、AIプロジェクトを研究し、適用する必要がある。AIは人間が作り出した知識の産物であるため、『良いAI』と『悪いAI』のバリエーションが存在する。そのため、人工知能自体によって人工知能の発展を防ぐことは可能である」とトゥアン大佐は指摘した。
サイバーセキュリティの課題
グエン・アン・トゥアン中佐は、AIがサイバーセキュリティに課題をもたらしていることを認めた。したがって、AI 対応のマルウェアはドキュメント ファイルにインストールされる可能性があります。ユーザーがドキュメント ファイルをアップロードすると、このマルウェアがシステムに侵入します。さらに、特殊な AI テクノロジーにより、ハッカーはシステムをシミュレートし、セキュリティ ホールを攻撃することができます。 AIは、公安部のアプリケーションやウェブサイトの偽の画像や名前を使って、人々がダウンロードしてインストールし、IDカード番号やログインパスワードなどの情報を提供する多くのアプリケーションを作成できます。 「AIは、より洗練されたセキュリティ回避メカニズムと柔軟なソースコード変更を備えた独自のソフトウェアとハイブリッドマルウェアも開発するだろう」とグエン・アン・トゥアン中佐は警告した。
[広告2]
出典: https://nld.com.vn/toi-pham-mang-co-them-bi-kip-tu-ai-196240601195415035.htm
コメント (0)