BGRによれば、2024 年は人工知能が本当にコンピューティングの未来なのか、それとも一時的な流行に過ぎないのかを世界が認識する重要な時期となるでしょう。 AI の実際の応用はますます多様化していますが、今後数か月の間に、数え切れないほどの詐欺を通じてこのテクノロジーの暗い側面も明らかになるでしょう。
Scams.info の詐欺対策専門家が、2024 年に誰もが警戒すべき 3 つの AI 詐欺のリストを発表しました。一般的に、派手すぎるものには注意が必要ですが、以下の手口には特に注意が必要です。
AIを使った投資詐欺
Google、Microsoft、OpenAIなどの大手企業はAIに何百万ドルも投入しており、今年もさらに多額の投資を続ける予定です。詐欺師はこの事実を利用して、怪しい投資機会にあなたを誘い込みます。もしソーシャル メディアで誰かが AI によって投資収益が倍増すると説得してきたら、財布を開く前によく考えてください。
低リスクで「良い」投資など存在しない。
「低リスクで高いリターンを約束する投資には注意し、お金を投入する前に必ず調査を行ってください」とScams.infoの専門家ニコラス・クラウチ氏は警告しています。新規投資家は、投資家を紹介するオファーにも注意する必要があります。多くの場合、それらは多層モデルで運営されており、トップの者だけが利益を得て、他の参加者が利益を得ることはほとんどありません。
親戚になりすます
友人や親戚になりすましてお金を借りるという手口は、詐欺師の声真似があまり効果的ではないため、もはや目新しいものではありません。しかし、AI の登場により、この詐欺はさらに恐ろしいものになります。愛する人の声を収録した YouTube 動画や Facebook の投稿があれば、詐欺師は AI を使ってそれを完璧に再現できます。電話で違いが分かりますか?
AIはあなたの愛する人の声を簡単に真似できる
ワシントンポストのスクリーンショット
「詐欺師が自分の声や家族の情報を盗み取らないように、人々がソーシャルメディアのアカウントを保護することが重要だ」とクラウチ氏は強調した。
音声を使ってセキュリティシステムを回避する
一部の銀行では、電話での取引時に音声認識を使用してユーザーを認証しています。上記の理由により、この方法は突然以前よりも安全性が低くなります。自分の声を収録したビデオやクリップをインターネット上のどこかに投稿すると、悪意のある人物がそのコンテンツを利用してあなたの声をコピーする可能性があります。クラウチ氏が指摘するように、銀行には顧客の身元を確認するための他のデータも残っているが、この戦術は犯罪者が銀行口座を盗むことに一歩近づくことになる。
音声セキュリティシステムはもはやAIの力から安全ではない
AI は私たちの生活やデバイスとのやり取りを根本的に変える可能性があります。これは、ハッカーや詐欺師がユーザーを攻撃するために使用する最新のツールでもあります。したがって、AI に関連するあらゆる活動に参加する前に、常に警戒し、慎重に調査するようにしてください。
[広告2]
ソースリンク
コメント (0)