ChatGPTの長期記憶機能は、OpenAIが2024年2月に導入し、9月に拡張した新機能です。
最近、セキュリティ研究者の Johann Rehberger 氏がこの機能に関連する重大な脆弱性を明らかにしました。
この新しい機能は、チャットボットが以前の会話の情報を保存するのに役立つことが知られています。これにより、ユーザーはチャットするたびに年齢、興味、個人的な見解などの情報を再入力する必要がなくなります。しかし、これは攻撃者が悪用できる弱点となっています。
ヨハン・レーバーガーは、ハッカーがプロンプト・インジェクション技術、つまり悪意のある命令をメモリに埋め込み、AIに従わせる技術を使用できることを示しました。これらのコマンドは、電子メール、ドキュメント、Web ページなどの信頼できないコンテンツを通じて挿入されます。
こうした偽の記憶が保存されると、AI はそれをユーザーとの会話で実際の情報として使い続けることになります。これにより、ユーザーの個人データが不正に収集され、使用される可能性があります。
Rehberger 氏は、ChatGPT に偽のメモリを保存させる悪意のある画像を含むリンクを送信するという具体的な例を示しました。この情報は、後で ChatGPT の応答に影響します。特に、ユーザーが入力した情報もハッカーのサーバーに送信されます。
したがって、攻撃を誘発するには、ハッカーは ChatGPT ユーザーに悪意のある画像を含むリンクをクリックするように誘導するだけで済みます。その後、ChatGPT とのすべてのユーザー会話は、痕跡を残さずに攻撃者のサーバーにリダイレクトされます。
2024年5月、レバーガー氏はバグを発見し、OpenAiに報告したが、同社はそれを安全上のバグとしかみなさなかった。ユーザーデータの盗難の可能性があるという証拠を受け取った後、同社は ChatGPT の Web バージョンに一時的なパッチをリリースしました。
この問題は一時的に解決されたものの、信頼できないコンテンツが依然としてプロンプトインジェクションを使用してChatGPTの長期メモリに偽の情報を挿入する可能性があることをRehberger氏は強調した。つまり、場合によっては、ハッカーが脆弱性を悪用して悪意のあるメモリを保存し、個人情報を長期的に盗む可能性があるということです。
OpenAI は、ユーザーが ChatGPT のキャッシュメモリを定期的にチェックして誤検知がないか確認することを推奨しています。同時に、同社はこのツールに保存された思い出を管理および削除する方法についても詳細な手順を公開しています。
[広告2]
出典: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html
コメント (0)