ChatGPTのような人工知能(AI)は2023年初頭から世界的に話題になっていますが、このAIは必ずしも良い目的で使用されるわけではありません。最近、セキュリティ専門家が、テスト中に ChatGPT に悪意のあるコードを生成するよう指示する方法を発見しました。
Forcepoint社のセキュリティ専門家であるAaron Mulgrew氏は、OpenAIが開発した言語チャットボットを使用して悪意のあるコードを書くリスクについて語りました。 ChatGPTはユーザーがAIに悪意のあるコードの設計を依頼できないように設計されていますが、アーロン氏はAIにプログラミングコードを1行ずつ書かせるプロンプトを作成することで抜け穴を発見しました。これらを組み合わせると、アーロンは、今日の最も高度なマルウェアに匹敵するほど洗練された、検出不可能なデータ盗難ツールを手に入れたことに気づきました。
ChatGPT によって生成された個々のコマンド ラインを組み合わせると、高度なマルウェアになる可能性があります。
マルグルー氏の発見は、ハッカー集団やツール作成者が書いたコードを1行も必要とせずに、AIが危険なマルウェアの作成に利用される可能性があることを警告するものだ。
Mulgrew のソフトウェアはスクリーンセーバー アプリケーションを装っていますが、Windows ベースのデバイス上で自動的に起動することができます。マルウェアは、いったんオペレーティング システムに侵入すると、Word テキスト エディター、画像ファイル、PDF など、あらゆるファイルに「忍び込み」、盗むデータを探します。
必要なものが揃うと、プログラムは情報を分解し、マシン上の画像ファイルに添付します。検出を避けるため、これらの写真は Google ドライブ クラウド ストレージのフォルダにアップロードされました。このマルウェアが非常に強力になるのは、Mulgrew が ChatGPT に入力された簡単なコマンドを通じて検出を回避するために機能を微調整および強化できるためです。
これはセキュリティ専門家による非公開テストの結果であり、テスト範囲外での攻撃は行われていませんが、サイバーセキュリティの専門家は依然としてChatGPTを使用した活動の危険性を認識しています。マルグルー氏はプログラミングの経験がほとんどないと主張しているが、OpenAIの人工知能はそれでも彼のテストを阻止できるほど強力でも賢くもなかった。
[広告2]
ソースリンク
コメント (0)