ChatGPT의 장기 메모리 기능은 OpenAI가 2024년 2월에 도입하고 9월에 확장한 새로운 기능입니다.
최근, 보안 연구원인 요한 레흐베르거는 이 기능과 관련된 심각한 취약점을 공개했습니다.
이 새로운 기능은 챗봇이 이전 대화의 정보를 저장하는 데 도움이 되는 것으로 알려졌습니다. 덕분에 사용자는 채팅할 때마다 나이, 관심사 또는 개인 의견과 같은 정보를 다시 입력할 필요가 없습니다. 하지만 이는 공격자가 악용할 수 있는 약점이 되었습니다.
요한 레흐베르거는 해커가 즉각적인 주입 기술을 사용하여 메모리에 악성 명령을 이식하고 AI가 복종하도록 강제할 수 있다는 것을 보여주었습니다. 이러한 명령은 이메일, 문서, 웹 페이지 등 신뢰할 수 없는 콘텐츠를 통해 삽입됩니다.
이러한 가짜 기억이 저장되면 AI는 이를 사용자와의 대화에서 실제 정보로 계속 사용하게 됩니다. 이로 인해 사용자의 개인정보가 무단으로 수집 및 사용될 수 있습니다.
Rehberger는 악성 이미지가 포함된 링크를 보내 ChatGPT가 거짓 메모리를 저장하도록 하는 구체적인 예를 제공했습니다. 이 정보는 나중에 ChatGPT의 응답에 영향을 미칠 것입니다. 특히, 사용자가 입력한 모든 정보는 해커의 서버로 전송됩니다.
따라서 해커가 공격을 시작하려면 ChatGPT 사용자가 악성 이미지가 포함된 링크를 클릭하도록 설득하기만 하면 됩니다. 그러면 ChatGPT를 통한 모든 사용자 대화는 아무런 흔적도 남기지 않고 공격자의 서버로 리디렉션됩니다.
2024년 5월, 레흐버거는 버그를 발견한 후 OpenAi에 보고했지만, 회사는 이를 안전 버그로만 간주했습니다. 사용자 데이터가 유출되었을 가능성이 있다는 증거를 접수한 후 해당 회사는 ChatGPT 웹 버전에 대한 임시 패치를 출시했습니다.
이 문제는 일시적으로 해결되었지만 Rehberger는 신뢰할 수 없는 콘텐츠가 여전히 Prompt 주입을 사용하여 ChatGPT의 장기 메모리에 가짜 정보를 삽입할 수 있다고 강조했습니다. 즉, 어떤 경우에는 해커가 이 취약점을 악용해 악성 메모리를 저장해 장기적으로 개인 정보를 훔칠 수 있다는 의미입니다.
OpenAI는 사용자에게 ChatGPT의 캐시된 메모리를 정기적으로 확인하여 거짓 양성 반응이 있는지 확인할 것을 권장합니다. 동시에 회사는 이 도구에 저장된 메모리를 관리하고 삭제하는 방법에 대한 자세한 지침도 제공합니다.
[광고2]
출처: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html
댓글 (0)