하메네이 시신 사진, 인공지능으로 생성된 가짜 이미지로 확인
이란 최고 지도자 아야톨라 세예드 알리 하메네이의 시신을 수습하는 불길한 사진이 소셜 미디어(SNS)에서 확산되었으나, 이는 인공지능(AI)으로 조작된 가짜 이미지로 밝혀졌다. 4일(현지시간) AFP 팩트체크팀은 해당 사진의 진실성을 검토한 결과, 이 이미지가 AI에 의해 생성된 허위 정보라는 점을 강조했다.
문제가 된 이미지들 속에는 무너진 콘크리트 잔해 아래 하메네이가 누워 있는 모습과 함께 헬멧을 쓴 구조대원들이 그 주위를 둘러싼 장면이 담겨 있었다. 추가적으로, 다른 이미지에서는 하메네이가 콘크리트 더미 아래에 정식으로 누워 있는 모습이 포착됐다. 특히 이란의 하메네이 사망을 규탄하는 대규모 시위가 지난 2일(현지시간) 파키스탄 카라치에서 열렸고, 그와 관련된 뉴스가 이 이미지의 유포에 기여했음을 시사한다.
그러나 AFP는 하메네이의 시신을 재확인할 수 있는 공식적인 사진이 전혀 발표된 적이 없으며, SNS에서 유포된 여러 이미지가 AI 기술을 통해 생성된 것으로 의심된다고 밝혔다. 특히 페이스북에 게재된 하메네이 관련 이미지에서는 메타(Meta) 플랫폼의 AI 생성 이미지 지정이 확인되었다고 덧붙였다. 전문가들은 사진 내 하메네이의 손과 손가락이 비정상적으로 왜곡된 점을 AI 특유의 현상으로 해석하고 있으며, 이는 사진의 진위 여부에 대한 중요한 증거로 작용하고 있다.
이런 전쟁 관련 가짜뉴스가 확산됨에 따라 SNS 플랫폼들은 적극적으로 대응에 나섰다. 일론 머스크가 이끄는 엑스(X·옛 트위터)는 전쟁과 관련된 AI 생성 비디오를 내용 출처 없이 게시한 사용자에게 수익 공유를 중단하는 조치를 취하기로 결정했다. 엑스의 제품 책임자인 니키타 비어는 3일 X 게시물을 통해 "무력 충돌을 주제로 한 AI 생성 영상을 출처 밝히지 않고 게시하는 이용자는 광고 수익 공유 프로그램에서 90일간 퇴출될 수 있으며, 재차 적발될 경우 영구 퇴출된다"고 경고했다.
따라서, SNS 사용자들은 관련 영상을 공유할 때 반드시 'AI로 제작됨'이라는 표시를 추가해야 하며, 이는 플랫폼의 신뢰성 유지와 사용자 보호를 위한 조치다. 하메네이의 시신을 둘러싼 이러한 사건은 정보의 진위를 가리는 과제가 얼마나 중요한지를 다시 한 번 떠올리게 한다. 가짜 뉴스의 확산이 심각한 상황에서, 사회는 실제와 허구를 구별하는 데 더욱 신중을 기해야 할 것이다.
