AI 조작 사진에 가짜뉴스까지…시드니 총격 사건 ‘혼란’

[서울=뉴시스]김혜경 기자, 오채연 인턴기자 = 호주 시드니 본다이 비치에서 발생한 총격 테러 사건과 관련해 인공지능(AI)으로 조작된 이미지와 가짜 뉴스가 온라인상에 확산되면서, 사건 자체가 조작된 것이라는 음모론까지 퍼지는 등 혼란이 커지고 있다.

16일(현지시간) BBC 등 외신에 따르면 우선 사건 현장에서 피를 흘린 채 호주 방송사와 인터뷰한 남성을 소재로 제작된 AI 조작 사진이 퍼졌다.

조작된 이미지에는 해변 인근 촬영 현장에서 분장사가 한 남성의 얼굴에 가짜 피를 바르는 장면처럼 연출된 모습과 함께, 주변에 피가 담긴 통들이 놓여 있는 모습이 담겼다.

이 사진은 총격 사건이 조작됐다는 허위 주장을 확산하는 데 활용됐으며, 소셜미디어 엑스(옛 트위터)에서 조회 수 1000만 회, 좋아요 4만 1000여개를 받은 것으로 전해졌다.

해당 AI 이미지의 원본은 인권 변호사 아르센 오스트롭스키가 사건 직후 얼굴에 피가 묻은 채 언론 인터뷰를 진행한 실제 장면이다. 오스트롭스키가 인터뷰 당시 입고 있던 티셔츠에는 중앙 로고와 함께 ‘미국 해병대(United States Marines)’ 문구가 선명히 적혀 있었으나, AI 생성 이미지에서는 글자가 왜곡돼 있다. 또한 조작 사진에는 목 부근에 큰 혈흔이 보이지만, 실제 인터뷰 영상에는 해당 부위에 피가 묻어 있지 않다.

오스트롭스키는 “수술에 들어가기 전 조작 이미지들을 봤다”며 “이런 병적인 거짓과 증오의 캠페인에 대응할 가치를 느끼지 않는다”고 밝혔다.

총격범 나비드 아크람의 사진을 활용해 사건이 인도 당국과 연관됐다는 허위 정보를 퍼뜨리는 AI 이미지도 등장했다. ABC뉴스에 따르면 필리핀의 한 야외 카페에 앉아 있는 나비드 아크람의 모습으로 보이는 AI 생성 이미지가 온라인에서 확산됐다.

한 엑스 게시물은 해당 이미지가 인도 국방부의 필리핀 주재 국방무관인 찬드라 칸트 코타리 대위와 총격범이 마주 앉아 있는 장면이라고 주장했다. 일부 이용자들은 이를 근거로 인도 당국과 총격범 간 사전 접촉이 있었다는 주장을 제기했지만, 해당 장면은 실제로 존재하지 않는 것으로 확인됐다.

ABC 뉴스 사실검증 결과 해당 이미지는 구글의 AI 도구로 생성된 것으로 확인됐으며, 코타리 대위가 총격범과 접촉했다는 어떠한 증거도 없다고 밝혔다.

가짜 뉴스로 인해 무고한 시민이 직접적인 피해를 입는 사례도 발생했다. 더가디언에 따르면 총격범 중 한 명과 이름이 같은 파키스탄 남성 나비드 아크람이 범인으로 잘못 지목돼 온라인에 운전면허증 사진이 유포되며 공격을 받기도 했다.

해당 남성은 자신이 테러범으로 오인된 뒤 삶이 “악몽이 됐다”고 호소했다. 그는 SNS를 통해 “이제 밖에 나가는 것조차 안전하지 않다”며 “그 사건이나 인물과 나는 아무 관련이 없고, 내 사진이 포함된 게시물을 발견하면 신고하고 더이상 전파하지 말아달라”고 강조했다.

앞서 지난 14일 호주 본다이 비치에서 유대인 행사 ‘바다 위의 하누카(Chanukah by the Sea)’가 진행되는 도중 사지드 아크람(50)과 그의 아들 나비드 아크람(24)이 총기를 난사해 15명이 숨지고 25명이 병원으로 이송되는 참사가 발생했다.
◎공감언론 뉴시스 chkim@newsis.com

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다