ChatGPT와 같은 인공지능(AI) 기술은 2023년 초부터 전 세계적으로 큰 화제를 불러일으켰지만, 항상 긍정적인 목적으로만 사용되는 것은 아닙니다. 최근 한 보안 전문가는 ChatGPT가 테스트 과정에서 악성 코드를 생성하도록 조작하는 방법을 발견했습니다.
포스포인트의 보안 전문가인 아론 멀그루는 오픈AI의 이중 언어 챗봇을 이용해 악성 코드를 작성하는 위험성을 공유했습니다. ChatGPT는 사용자가 인공지능에게 악성 코드 작성을 요청하는 것을 방지하도록 설계되었지만, 아론은 인공지능이 코드를 한 줄씩 작성하도록 명령(프롬프트)을 만들어 취약점을 발견했습니다. 이를 통해 아론은 탐지 불가능한 데이터 탈취 실행 도구를 만들 수 있다는 것을 깨달았고, 그 정교함은 현재 사용 가능한 가장 진보된 악성 코드와도 견줄 만하다고 밝혔습니다.
ChatGPT가 생성하는 각각의 코드 라인은 조합될 경우 정교한 악성 소프트웨어가 될 수 있습니다.
멀그루의 발견은 해킹 그룹의 개입이나 제작자가 단 한 줄의 코드도 작성하지 않고도 인공지능을 악용하여 위험한 악성 소프트웨어를 만들 수 있는 잠재력에 대한 경각심을 일깨워줍니다.
멀그루(Mulgrew)의 악성 프로그램은 데스크톱 애플리케이션으로 위장하고 있지만, 윈도우 기기에서 자동으로 활성화될 수 있습니다. 운영 체제에 침투한 후에는 워드 문서, 이미지 파일, PDF 파일 등 모든 파일에 "침투"하여 데이터를 탈취합니다.
이 프로그램은 필요한 정보를 획득하면 이를 분해하여 컴퓨터의 이미지 파일에 삽입합니다. 탐지를 피하기 위해 이러한 이미지는 Google Drive 클라우드 저장소의 폴더에 업로드됩니다. Mulgrew는 ChatGPT에 입력하는 간단한 명령어를 통해 탐지를 회피하도록 기능을 세밀하게 조정하고 강화할 수 있기 때문에 매우 강력해집니다.
비록 이는 보안 전문가가 실시한 비공개 테스트 결과였고 테스트 영역 외부에서는 공격이 실행되지 않았지만, 사이버 보안 전문가들은 ChatGPT를 이용한 활동의 위험성을 여전히 인지하고 있었습니다. 멀그루는 자신은 프로그래밍 경험이 많지 않지만, 오픈아이언의 인공지능조차 자신의 테스트를 막을 만큼 강력하거나 똑똑하지 못했다고 밝혔습니다.
[광고_2]
출처 링크






댓글 (0)