현재 AI 애플리케이션은 가짜 얼굴을 만들 수 있습니다.
AP는 어제 이 조직의 보고서를 인용하며 많은 사람들이 AI를 이용해 실제 사람의 얼굴을 누드 사진이나 영상에 붙여 넣거나, 심지어 가짜 얼굴을 직접 만들어 포르노 "작품"을 만들었다고 보도했습니다.
이를 방치하면 수십억 개의 가짜 이미지로 인해 조사관이 실제로 위험에 처한 어린이를 구출하는 데 어려움을 겪을 수 있습니다. 악의적인 행위자는 이러한 이미지를 사용하여 제3자에게 판매하거나 피해자를 협박할 수도 있습니다.
Euronews 에 따르면, 미국과 영국의 현행법에 따르면 AI가 생성한 아동 성적 학대 영상의 대부분은 불법이지만, 법 집행 기관이 이를 막을 수 있는 도구를 갖추고 있는지는 불분명합니다.
[광고_2]
소스 링크
댓글 (0)