경찰이 1200여 명의 대학생이 활동 중인 SNS 대화방에서 ‘딥페이크(Deepfake·인공지능을 활용해 기존 인물의 얼굴이나 특정 부위를 합성하는 기술)’를 이용해 여대생들의 얼굴을 나체 사진에 합성한 사진 등이 유포되고 있는 사건에 대한 수사에 나섰다.
20일 인천경찰청 사이버범죄수사대에 따르면 지난해 말 텔레그램 단체 대화방 운영자 A씨 등이 일명 ‘딥페이크’ 사진을 해당 대화방을 통해 유포하고 있다는 신고가 경찰에 접수됐다.
수사에 착수한 경찰은 A씨 등이 지난 2020년 해당 대화방을 개설한 뒤 여성들의 얼굴과 나체 사진을 합성한 사진을 비롯해 피해자의 목소리가 담긴 음성파일 등을 공유한 사실을 파악했다.
현재까지 확인된 피해자는 인천의 한 대학교에 재학 중인 여학생이거나 졸업생 등 총 4명으로 확인됐다.
그러나 아직 자신의 피해 사실을 인지하지 못한 피해자들이 많아 향후 피해자의 수는 더욱 늘어날 것으로 보인다.
해당 대화방에서는 이 같은 딥페이크물 외에도 피해자들의 학번과 연락처 등 개인정보도 공유돼 일부 피해자들이 협박을 받은 일도 발생한 것으로 전해졌다.
다만, 대화방에 참여 중인 이들의 신원은 아직 확인되지 않았다.
경찰 관계자는 "지난해 피해자의 신고를 받고 수사에 나서 올 3월 피해 영상물을 내려받아 재유포한 대화방 참여자 1명을 검거해 성폭력범죄의 처벌 등에 관한 특례법 위반 혐의로 검찰에 구속송치한 상태"라며 "다만, 텔레그램의 특성상 추적이 어려워 주범인 A씨의 신원은 아직 확인하지 못한 상황으로, 지속적으로 추적을 이어갈 것"이라고 말했다.
전체댓글 0