가짜 AI 이미지는 어떻게 작동하나요?
오늘날 AI는 어디에나 있습니다. 심지어 전쟁에서도요. 올해는 인공지능 애플리케이션이 크게 개선되어 거의 모든 사람이 AI 생성기를 사용하여 적어도 첫눈에 보기에는 현실적으로 보이는 이미지를 만들 수 있습니다.
AI가 생성한 가자 전쟁의 가짜 사진.
이를 위해 사용자는 Midjourney나 Dall-E와 같은 도구에 사양과 정보를 포함한 몇 가지 힌트만 제공하기만 하면 됩니다. 그러면 AI 도구가 텍스트나 음성 메시지를 이미지로 변환합니다.
이 이미지 생성 과정은 머신 러닝이라고 알려진 기술을 기반으로 합니다. 예를 들어, 이미지 제작자가 자전거를 타는 70세 노인을 보여달라고 요청하면 이미지에 맞는 용어를 찾기 위해 데이터베이스를 검색합니다.
AI 알고리즘은 이용 가능한 정보를 바탕으로 노인 자전거 타는 사람의 이미지를 생성합니다. 끊임없이 증가하는 입력과 기술 업데이트 덕분에 이러한 도구는 극적으로 개선되었으며 끊임없이 학습하고 있습니다.
이 모든 것이 중동 갈등과 관련된 이미지에 적용되고 있습니다. AI 전문가인 하니 파리드는 "감정이 매우 격앙된" 갈등에서 AI 이미지를 통해 퍼진 것을 포함한 잘못된 정보는 엄청난 영향을 미친다고 말했습니다.
캘리포니아 대학교 버클리 캠퍼스의 디지털 분석학 교수인 파리드는 격렬한 싸움이 가짜 콘텐츠를 만들고 유포하며 감정을 조장하는 데 완벽한 온상이 된다고 말했습니다.
이스라엘-하마스 전쟁의 AI 이미지
인공지능의 도움으로 만들어진 사진과 영상은 우크라이나 전쟁과 관련된 허위 정보를 부추겼으며, 이스라엘-하마스 전쟁에서도 그런 일이 계속 일어나고 있습니다.
전문가들에 따르면, 소셜 미디어에 유포되는 전쟁 관련 AI 이미지는 대체로 두 가지 범주로 나뉜다. 사람들의 고통에 초점을 맞추고 공감을 불러일으키는 작품입니다. 다른 하나는 사건을 과장하여 갈등을 조장하고 폭력을 확대하는 가짜 AI입니다.
AI가 생성한 가자지구 잔해 속의 아버지와 아이의 가짜 사진.
예를 들어, 첫 번째 카테고리에는 잔해 더미 앞에 선 다섯 자녀와 함께 있는 아버지의 사진이 위에 나와 있습니다. 이 게시물은 X(이전의 트위터)와 인스타그램에 여러 번 공유되었고, 수십만 번 조회되었습니다.
이 이미지는 최소한 X에서 커뮤니티에 의해 가짜로 표시되었습니다. 이는 AI 이미지에서 일반적으로 발견되는 다양한 오류와 불일치를 통해 인식될 수 있습니다(위의 이미지 참조).
비슷한 변칙성은 아래 X에서 바이러스처럼 퍼진 가짜 AI 이미지에서도 볼 수 있는데, 이는 팔레스타인 가족이 폐허에서 함께 식사하는 모습을 보여준다고 합니다.
AI가 생성한 팔레스타인 정당의 가짜 사진.
한편, 폭격으로 파괴된 주택이 가득한 정착촌을 행진하면서 이스라엘 국기를 흔드는 군인을 보여주는 또 다른 이미지는 증오와 폭력을 조장하기 위해 고안된 두 번째 범주에 속합니다.
이런 AI 이미지는 어디서 나오는가?
AI가 생성한 갈등 이미지는 대부분 소셜 미디어 플랫폼에 게시되지만, 다른 여러 플랫폼과 조직, 심지어 일부 뉴스 사이트에서도 볼 수 있습니다.
소프트웨어 회사 Adobe는 2022년 말까지 스톡 사진 범위에 AI가 생성한 이미지를 추가하여 큰 화제를 모았습니다. 이러한 이미지는 데이터베이스에 적절하게 레이블이 지정됩니다.
Adobe는 이제 중동 전쟁의 AI 이미지를 판매하기 시작했습니다. 예를 들어 알-아크사 모스크 뒤편에서 솟아오르는 폭발, 시위대, 연기 기둥과 같은 이미지입니다.
Adobe는 가자지구에서의 전투 상황을 AI가 생성한 이미지를 제공하고 있습니다.
비평가들은 일부 사이트가 해당 이미지를 AI가 생성한 것이라고 표시하지 않고 계속 사용하고 있어 이를 문제 삼았습니다. 예를 들어, 위 이미지는 AI를 사용하여 생성되었다는 표시 없이 "뉴스브레이크" 페이지에 게재되었습니다.
유럽 의회의 과학 부서인 유럽 의회 조사국조차도 중동 갈등에 대한 온라인 문서에 Adobe 데이터베이스의 AI 이미지를 사용했는데, 이를 AI가 생성했다는 표시는 하지 않았습니다.
유럽 디지털 미디어 관측소는 언론인과 미디어 전문가들에게 AI 이미지를 사용할 때 극히 조심할 것을 촉구하며, 특히 가자 전쟁과 같은 실제 사건을 다룰 때 AI 이미지를 사용하지 말 것을 권고했습니다.
AI 이미지는 얼마나 위험한가?
바이러스성 AI 콘텐츠와 이미지로 인해 사용자는 온라인에서 접하는 모든 것에 대해 불안감을 느끼고 있습니다. "이미지, 사운드, 비디오를 조작할 수 있는 이 세상에 들어가면 모든 것이 의심스러워집니다. 그래서 진실을 포함한 모든 것에 대한 믿음을 잃게 됩니다." UC 버클리 연구원 파리드가 설명합니다.
다음 사례에서도 정확히 그런 일이 일어났습니다. 이스라엘 아기의 탄 시체로 알려진 사진이 이스라엘 총리 베냐민 네타냐후와 다른 여러 정치인들에 의해 소셜 미디어에 공유되었습니다.
이스라엘에 반대하는 인플루언서인 잭슨 힌클은 나중에 이 이미지가 인공지능을 사용하여 만들어졌다고 주장했습니다. 힌클의 성명은 소셜 미디어에서 2,000만 번 이상 조회되었으며 플랫폼 내에서 격렬한 논쟁을 불러일으켰습니다.
결국 수많은 기관과 검증 도구가 해당 이미지가 진짜이고 힌클의 주장은 거짓이라고 선언했습니다. 하지만 사용자가 잃어버린 신뢰를 쉽게 회복하도록 도와주는 도구는 없는 듯합니다!
황하이 (DW에 따르면)
[광고2]
원천
댓글 (0)