아이돌 '딥페이크' 성착취물로 용돈 번 10대들 구속

1만4천여건 합성 사진·영상물 판매한 10대가 벌어들인 수익…130만원
경찰, "10대지만, 영상은 재유포 되는 중대 범죄라 구속"

연예인이나 일반 여성의 얼굴을 합성한 '딥페이크' 성착취 영상물을 SNS 상에서 유통시켜 용돈을 번 10‧20대가 경찰에 붙잡혔다.해당 사진 모자이크 처리. 부산경찰청 제공
연예인이나 일반 여성의 얼굴을 합성한 '딥페이크' 성착취 영상물을 SNS 상에서 유통시켜 용돈을 번 10‧20대가 경찰에 붙잡혔다.

부산경찰청 사이버수사과는 성폭력처벌법위반 혐의로 A(18)군 등 10대 2명을 구속하고, 같은 혐의로 B(10대)군 등 10~20대 3명을 불구속 입건했다고 25일 밝혔다.

또 유포자에게 판매 서버를 임대해준 업자 C(20대)씨도 함께 입건했다.

경찰에 따르면, A군 등 2명은 지난해 12월 트위터 등 SNS를 통해 K-POP 가수 150여 명의 얼굴을 합성한 '딥페이크' 사진과 성착취 영상물을 판매해 130만원 상당의 수익을 챙긴 혐의를 받고 있다.

'딥페이크'는 인공지능(AI)을 이용해 특정 인물의 얼굴 등을 영상에 합성한 편집물을 뜻한다. 그러나 성인 비디오(Adult Video·AV)에 여성 연예인이나 일반인 얼굴을 합성하는데 악용돼 디지털 성범죄 논란이 끊이지 않고 있다.

경찰 조사 결과 학교를 자퇴한 A군 등 2명이 SNS상에 유통한 딥페이크 사진은 모두 3309건, 일반 성착취 영상물은 1만1373건에 달하는 것으로 드러났다.


나머지 유포자 3명은 수익이 A군만큼 많지는 않았지만, 이들 역시 각각 지난 1~2월 트위터 등 해외 SNS를 통해 국내 유명 가수 등의 얼굴을 합성한 사진을 판매해 수만원 상당의 수익을 낸 혐의를 받고 있다.

특히 10대인 B군은 지난달 연예인뿐만 아니라 일반인 9명의 얼굴을 합성한 사진을 판매하기도 했다고 경찰은 전했다.

부산경찰청 전경. 부산경찰청 제공
이들은 성착취물 영상의 유포가 쉽지 않을 경우 서버를 유료로 제공하는 업자를 통해 영상물을 전달한 것으로도 확인됐다.

경찰은 이와 별도로 딥페이크 영상물을 유포한 13건의 사건에 대해서도 내사 중에 있다.

담당 경찰은 최근 "인터넷에 유포된 불법 허위 영상물의 대다수는 속칭 '지인능욕물'이나 연예인 합성 허위 영상물이 차지하고 있다"면서 "불법 허위 영상물은 한 번 유포가 되면 지속적으로 공유·확산·재 유포돼 추가 피해를 발생시키는 중대한 범죄라서 비록 10대였지만 구속할 수밖에 없었다"고 밝혔다.

한편, 경찰은 과거에는 불법 성영상물을 합성해 제작·유포한 행위를 처벌하는 별도의 규정이 존재하지 않아 정보통신망법상 명예훼손이나 음란물 유포죄로 처벌해 왔다.

이를 처벌할 수 있는 성폭력처벌법 개정안이 지난해 6월부터 시행되면서 최근 부산경찰청은 불법 성착취 영상물 유포에 대한 집중단속을 진행하고 있다.

실시간 랭킹 뉴스