[사사건건] 딥페이크 범죄 급증

입력 2024.08.28 (16:26) 수정 2024.08.28 (17:49)

읽어주기 기능은 크롬기반의
브라우저에서만 사용하실 수 있습니다.

■ 방송시간 : 8월 28일(수) 16:00~17:00 KBS1
■ 진행 : 송영석 기자
■ 출연 : 허주연 / 변호사


https://youtu.be/zHZHsX8BTNY

◎송영석: 최근 타인의 사진을 음란물에 합성하는 딥페이크, 이 딥페이크 성범죄가 우리 사회 구석구석까지 급속히 파고들고 있습니다. 특히 이 딥페이크 성범죄를 저지른 피의자, 또 피해자까지 10대의 비중이 눈에 띄게 높다는 점도 심각합니다. 이 문제는 허주연 변호사와 함께 짚어보겠습니다. 어서 오십시오.

▼허주연: 안녕하세요?

◎송영석: 반갑습니다. 최근에 대학가에서 사건이 터져가지고 어느 정도 이슈화도 되고 하긴 했습니다만, 공론화도 됐고요. 그런데 딥페이크 성범죄가 얼마나 심각하길래 지금 정치권까지 이렇게 나서서 해결하겠다고 나오는 겁니까?

▼허주연: 지금 대통령이 뿌리 뽑아야 된다라고 국무회의에서 직접 얘기할 정도로 굉장히 사안이 심각합니다. 왜 심각하냐면요, 이 범죄 자체도 굉장히 문제가 되는, 죄질이 불량한 범죄이기도 하지만 10대들, 어린 청소년들 사이에서 이게 너무나 급속도로 확산 되면서 파고들고 있다는 거예요. 지금 가해자 4명 중에 3명이 10대다라는 얘기가 나올 정도로 이 10대들 사이에서 범죄의 피해, 또 가해가 일어나고 있는 상황입니다. 심지어 불법 영상물이나 제작물, 합성물의 온상이라고 불리는 텔레그램에서는요, 무려 22만 명이 참여하고 있는 채널이 있다는 거예요. 그런데 이 채널이 상당히 기가 막힌 게요, 들어가서 이 지인의 얼굴 사진을 보내주면 불과 5초 만에 불법적으로 합성한. 그러니까 딥페이크라는 것이 결국에 AI 기술을 활용해서 만드는...

◎송영석: 그렇죠.

▼허주연: 가짜 합성 사진이나 영상물을 얘기하는 거잖아요. 지인의 사진을 보내주면 그 얼굴 가지고 불법적인 어떤 음란물 합성 사진을 불과 5초 만에 만들어서 보내준다는 거예요. 2장까지는 무료로 만들어주고 그다음부터 유료로 전환되는데, 비용도 하나에 700원이 채 되지 않을 정도로 저렴한 가격이다 보니까 여기 들어가서 10대들이 막 친구들 사진 보내주면서 이런 불법 합성물을 처음에는 장난으로 시작하는데, 이게 사실은 범죄거든요. 경각심이 굉장히 떨어지고 있는 상황에서 너도 나도 이렇게 하다 보니까 이 범죄가 급속도로 퍼져나간다는 거고요. 더 문제는 이 22만 명이 가입해 있는 텔레그램 채널방이 운영자를 알 수가 없어요. 왜냐하면, 운영자도 인공지능 로봇이라는 겁니다. 텔레그램이라는 채널 자체가 굉장히 보안성이 높고 범죄에 협조를 잘 안 하는 그런 특성을 갖고 있는 플랫폼인데, 운영자마저 베일에 가려 있는 상황이다 보니까 사태가 심각한 지금 그런 상황입니다.

◎송영석: 그 운영자를 잡기도 쉽지 않고 그리고 그만큼 많은 사람들이 그 텔레그램 방에 있다면 누구나 가해자가 될 수도 있고 피해자가 될 수도 있는 그런 위험에 노출돼 있는 거군요.

▼허주연: 그게 굉장히 무서운 거죠. 왜냐하면, 지금 앵커님도 그렇고 저도 그렇고 얼굴이 공개되어 있지 않습니까? 그런데 우리처럼 공개되어 있는 그런 TV에 많이 나오는 사람들을 대상으로, 처음에는 연예인들이라든가 이런 사람들 대상으로 이런 범죄가 나오기 시작하다가 지금 이게 더 심각한 게 뭐냐면요, 요즘에 다 휴대전화에 카메라 있잖아요.

◎송영석: 그렇죠.

▼허주연: 1인 1 카메라 시대라고 해도 과언이 아닌데, 그냥 친구의 사진을 찍어서, 우리 사진 찍는 데 별로 거부감이 없잖아요.

◎송영석: 공유하잖아요, 그리고.

▼허주연: 그렇죠. 그런 것들 단체방에서 공유하곤 하는데, 그런 사진들로도 얼마든지 피해자가 될 수 있다는 거예요. 피해자도 가리지 않습니다. 친구부터 시작해서 교사, 군인 그다음에 심지어 가족의 사진을 이런 식으로 하는 경우도 있다는 거예요. 그래서 이게 지금 누구나 피해자가 될 수 있는 상황이고 특히 어린 10대들이 자신의 프로필 사진 같은 것들 SNS에 게시했다가 피해를 볼 수도 있는 상황이고 이러다 보니까 모두가 사실 피해자가 될 수 있는 상황이라서 더 우려스럽습니다.

◎송영석: 모두가 피해자가 되고 있는 상황. 그런데 10대 피해자가 많다고 앞에서 말씀해 주셨는데, 연령대별로 보니까 피의자도 그렇고 피해자도 그렇고 10대가 가장 많다면서요?

▼허주연: 그렇습니다. 허위 영상물 관련 범죄 피의자 수가요, 2023년 기준으로 전체 120명 중에 무려 75.8%인 91명이 10대였다고 합니다.

◎송영석: 저렇게나 많습니까?

▼허주연: 그렇습니다. 가해자가 지금 75% 이상이 10대라는 거예요. 그런데 올해 상반기 기준으로 보면 이게 더 늘어났습니다. 그러니까 이게 2023년 전체 기준으로 10대 가해자가 91명이었는데, 지금 상반기 10대 가해자가 73.6%, 무려 131명에 달한다는 거예요.

◎송영석: 상반기에만.

▼허주연: 그렇죠. 그러면 올해 내내 지금 만약에 범죄가 더 확산이 된다고 하면 그야말로 10대 가해자 수가 엄청나게 늘어난다는 거고요. 지금 피해 지원 요청, 그러니까 피해자도 10대가 늘었습니다.

◎송영석: 피해자도요.

▼허주연: 그렇습니다. 이게 2022년 기준으로 10대 피해자가 64명이었는데요. 올해 기준으로 288명으로 무려 4.5배나 증가를 했거든요?

◎송영석: 심각하군요.

▼허주연: 그렇죠. 그러니까 또래 집단들 사이에서 또래를 대상으로 한 가해와 피해가 늘어나고 있다. 이렇게 보셔야 될 것 같습니다.

◎송영석: 이 정도면 교육 당국에서 나서야 되는 거 아닌가요?

▼허주연: 지금 교육부가 긴급 피해 현황을 조사를 했는데요. 전국 학교에서 196건의 피해가 접수가 됐다고 합니다. 올해 1월부터 어제까지입니다. 그러니까 상반기만 기준으로 보셔야 되는 거예요. 상반기 기준으로 이렇게 허위 합성물 피해를 입은 학생이요.

◎송영석: 200건 가까이 되는군요.

▼허주연: 그렇습니다. 186명이 된다고 하고요. 그리고 교사, 교원 피해도 10명으로 집계가 됐다고 하는데요. 지금 179건이 교육 당국 수사 의뢰로 수사 진행 중인 상황입니다.

◎송영석: 이게 피해 학교 지도가 나올 정도로 심각하다던데, 이 지도에 나온 그 내용이 만약에 사실이 아니라면 언론들이 이렇게 이슈화하지 않았을 텐데, 확인해봤더니 사실인 경우가 많다는 거 아니에요?

▼허주연: 그렇습니다. 이게 알려지기로는 한 중학생이 피해 정도가 너무나 심각하다는 걸 알리기 위해서 이 지도를 직접 만들었다고 하는데요. 이 지도를 보면 지금 붉게 표시된 곳이 피해 학생들이 있는 것으로 추정되는 학교인데...

◎송영석: 그렇습니까?

▼허주연: 사실 뭐 지역을 가리지 않습니다. 거의 전국적으로 저렇게 많이 붉은 점이 거의 점으로 보기 어려울 정도로 뭉쳐서 붉게 표시되어 있다는 거는 정말 엄청난 학교에서 피해자들이 있다는 얘기고, 저는 조금 하나 우려스러운 점은, 이게 피해 학생들의 개인 정보가 도대체 얼마나 많이 노출이 되어 있길래 학생이 이렇게 지도를 만들 수 있을 정도로 명단이 공개가 되고 있다는 그런 얘기도 있거든요.

◎송영석: 저게 다가 아닐 수도 있잖아요, 또.

▼허주연: 그렇습니다. 그런데 피해자들 입장에서는 아주 사소한 개인정보라도 알려지는 게 상당히 두려운 일이기 때문에 이 지도가 시사하는 바가 그만큼 피해자들의 개인정보가 많이 알려져 있다. 그리고 피해가 심각하다. 이런 것으로 정리를 해볼 수 있을 것 같습니다.

◎송영석: 그렇군요. 교육부가 어떻게 대응하겠다, 대처하겠다, 이렇게 발표한 내용도 좀 있나요?

▼허주연: 교육부 대응으로는 지금 딥페이크 관련 사안을 매주 한 번씩 조사를 하고 전담 조직을 구성하기로 했습니다. 그래서 피해 학생과 교원의 심리 지원, 또 학교 예방 교육, 인식 개선, 이런 것들을 한다고 하고요. 특히 지금 10대들의 피해와 범죄가 많은 이유가 뭐냐면, 또래 집단에서의 어떤 심리, 그러니까 또래 집단에 속하고 싶은 심리와 그 안에서 관심을 받고 싶은 영웅심리를 부추기는 분위기라는 거예요. 그러니까 들어가서 이런 지인이라든가 아니면 가족사진으로 이렇게 만들어서 보여주고 하면 영웅이다, 너 대단하다, 이렇게 얘기를 하고. 그렇게 하지 않는다고 하면 그 단체 채팅방에서 내보내기를 한다든가 사이버 왕따를 시킨다든가 이런 식으로 번지고 있다는 거예요. 전담 조직이 구성이 돼서 이게 잘못된 영웅심리라는 것을 교육 현장에서 알려주고 인식을 개선할 수 있는 그런 조치들이 있어야 된다고 생각이 듭니다.

◎송영석: 지난 5월에 발생한 사건이었죠. 이른바 서울대 N번방, 대학생들 같은 경우는 징역형이 선고되고 처벌을 받는데, 10대 학생들은 처벌할 수가 있나요?

▼허주연: 10대 학생들이 그것도 문제입니다. 그러니까 만약에 가해자가 10대인 경우에는요, 아시는 것처럼 촉법소년이라고 하면 당연히 형사처벌 대상이 될 수는 없을 것이고, 그리고 만약에 그 이상 나이가 된다고 하더라도 형사처벌 대상은 될 수 있을지언정 소년법의 적용을 받기 때문에 부정기형을 선고를 받게 됩니다. 그런데 이렇게 딥페이크, 그러니까 허위 영상물이나 사진 같은 것들을 제작해서 유포하고 이런 처벌이 근거 규정들이 다 유형마다 있기는 하지만 실제 양형 기준이 그렇게 높지 않고 실제로 처벌이 이어지는 경우에도 상당히 경미한 수준의 처벌이 나오는 경우가 많았거든요. 그런데 말씀하신 이른바 서울대 N번방 사건 공범은 지금 징역 5년 형을 선고를 받았는데, 이게 법 감정이라든가 범죄의 피해 정도에 비해서는 만족할 만한 수준은 아닐지언정 최근의 사건들 중에서는 그만큼 죄질이 불량하고 피해자의 인격을 말살했다는 이유로 비교적 높은 형량을, 다른 사례와 비교했을 때는 높은 형량을 선고받았다고 볼 수 있거든요. 좀 엄벌에 처해져야 한다는 생각이 듭니다.

◎송영석: 가해 학생 부모들 사이에서 증거를 부모가 대신 삭제해 주려는 그런 부모들도 있다고 하던데. 처벌하기에는 한계가 있는데, 이거는 예를 들어서 교육 당국이 지금 이제 막 찾고 조치를 취한다는 상황에서 뭔가 선제적으로, 뭔가 좀 법적 처벌까지 가능한지 모르겠습니다만 그래도 학생이 학교에서 적발될 거 아닙니까? 그걸 좀 막기 위한 그런 조치라고 봐야 될까요?

▼허주연: 이게 일종의 증거인멸 행위인 거죠. 그런데 아이들이라고 하니까 부모가 혹시 내 아이가 호기심에 이런 걸 했는데 혹시라도 문제가 생길까 봐 증거인멸 행위를 하는 거라고 보시면 되는데, 아이들한테 이거 잘못된 거라고 알려주고 강하게 따끔하게 혼내는, 처벌하는 그런 부분들이 필요하다는 생각이 들고요. 그리고 이게 한 가지 또 제가 지적하고 싶은 부분은, 이런 식으로 해서 다 지워지지 않습니다. 왜냐하면, 이게 삭제하는 속도보다 유포되고 퍼지는 속도가 훨씬 빠르거든요? 이 디지털 성범죄라는 것은 증거를 남길 수밖에 없습니다. 이거 포렌식하고 이러면 어디선가 반드시 흔적이 남기 마련이에요.

◎송영석: 그렇죠.

▼허주연: 그런데 이걸 역으로 말씀드리면 그만큼 디지털 성범죄로 인한 피해는 지워지지 않는 것이라는 얘기도 될 수 있거든요. 그래서 이걸 삭제를 한다고 하더라도 이 부분 항상 증거를 남긴다는 건 명심하셔야 될 것 같고요. 그만큼 피해가 확산 속도도 빠르고 지워지지 않는 피해를 남긴다는 점에서 디지털 성범죄에 대한 경각심이 더 높아져야 된다는 생각이 듭니다.

◎송영석: 그런데 허위 영상물 제작, 유포 시에는 처벌이 되는데, 그 영상을 보거나 단순히 소지한 사람은 또 처벌할 수도 없다면서요?

▼허주연: 이게 아동 청소년이 나오는 영상을 보거나 소지하는 경우에는 처벌 규정이 있고요. 그리고 카메라 등 이용 촬영죄, 그러니까 피해자 의사에 반해서 불법적으로 촬영한 영상물을 소지하거나 시청하는 행위도 처벌 규정에 있는데요. 문제는 성인 피해자의 얼굴과 음란한 내용의 어떤 다른 영상이나 사진을 합성한 거를 소지하거나 시청하는 경우에는 처벌 규정에 없습니다. 그런데 성인 피해자라고 하더라도 아동 청소년의 피해 또는 불법적으로 촬영 당한 사람의 피해와 크게 그 죄질이 다르지 않다고 저는 생각을 하거든요. 아무리 성인이라고 하더라도요, 자신의 얼굴과 음란물이 이렇게 합성이 돼서 돌아다니는 걸 보면 그 충격이나 이런 것들을 이루 말로 할 수가 없고. 말씀드린 것처럼 디지털 성범죄는 지워지지 않는 상처로 남습니다. 어디선가 뭐가 튀어나올지 모르고 어디에 뭐가 남아 있을지 모르는 상황이라는 거예요. 그래서 이걸 단순히 소지하고 시청하는 것, 물론 입증의 문제도 있고 가벌성이 넓어진다는 그런 지적도 있기는 합니다만, 다른 어떤 범죄, 유사한 범죄와의 처벌 규정과의 형평성을 생각해서라도 이 부분에 대해서는 단순 소지나 시청 또는 처벌하는 규정이 신설돼야 하는 것이 아닌가, 저는 그런 생각이 듭니다.

◎송영석: 다른 유사한 성범죄 비교해서 말씀해 주셨는데, 이게 뭐 디지털상에서 일어나다 보니까 물리적으로 접촉은 안 하잖아요. 그렇기 때문에 낮은 건가요, 상대적으로?

▼허주연: 이게 아무래도 직접적인, 물리적인, 성범죄, 기존의 성범죄들은 직접적인 어떤 접촉이라든가 강제 추행이라든가 이런 행위를 수반하는 행위이고 그런 것들로 인해서 죄질이 나쁘다고 생각해온 것이 우리의 고정관념이었습니다. 하지만 시대가 바뀌었죠. 디지털 AI 기술의 발전이 인류에 도움이 되기도 하지만 이걸 악용해서 범죄로 발전할 경우에는 또 다른 피해가 양산이 될 수밖에 없고, 그 피해가 실제 신체 접촉과 비교해서 결코 더 낮다, 혹은 가볍다라고 우리가 단정 지어서는 안 되는 부분이거든요. 말씀드린 것처럼 이거를 합성된 사진을 자신이 봤을 때 그 정신적인 충격이 실제 어떤 우리가 일반적으로 생각했던 물리적 접촉의 어떤 피해보다 결코 가볍다고 볼 수는 없습니다. 그래서 이런 부분에 대한 경각심이 기존의 어떤 고정관념과는 다른 부분이다 보니까 그동안은 감수성이 낮았던 부분이었는데요. 이런 부분에 대한 어떤 경각심이 고취가 돼서 비슷한 처벌 수위로 이 개선이 이루어져야 하는 부분이 있다는 생각도 듭니다.

◎송영석: 피의자도 그렇고 피해자도 그렇고 10대가 가장 많다고 하니 이게 심각한 사회 문제가 아닐 수 없습니다. 서둘러서 보완책을 마련해야겠습니다. 오늘 말씀 여기까지 듣죠. 허주연 변호사였습니다. 고맙습니다.

▼허주연: 감사합니다.

■ 제보하기
▷ 카카오톡 : 'KBS제보' 검색, 채널 추가
▷ 전화 : 02-781-1234, 4444
▷ 이메일 : kbs1234@kbs.co.kr
▷ 유튜브, 네이버, 카카오에서도 KBS뉴스를 구독해주세요!


  • [사사건건] 딥페이크 범죄 급증
    • 입력 2024-08-28 16:26:16
    • 수정2024-08-28 17:49:35
    사사건건
■ 방송시간 : 8월 28일(수) 16:00~17:00 KBS1
■ 진행 : 송영석 기자
■ 출연 : 허주연 / 변호사


https://youtu.be/zHZHsX8BTNY

◎송영석: 최근 타인의 사진을 음란물에 합성하는 딥페이크, 이 딥페이크 성범죄가 우리 사회 구석구석까지 급속히 파고들고 있습니다. 특히 이 딥페이크 성범죄를 저지른 피의자, 또 피해자까지 10대의 비중이 눈에 띄게 높다는 점도 심각합니다. 이 문제는 허주연 변호사와 함께 짚어보겠습니다. 어서 오십시오.

▼허주연: 안녕하세요?

◎송영석: 반갑습니다. 최근에 대학가에서 사건이 터져가지고 어느 정도 이슈화도 되고 하긴 했습니다만, 공론화도 됐고요. 그런데 딥페이크 성범죄가 얼마나 심각하길래 지금 정치권까지 이렇게 나서서 해결하겠다고 나오는 겁니까?

▼허주연: 지금 대통령이 뿌리 뽑아야 된다라고 국무회의에서 직접 얘기할 정도로 굉장히 사안이 심각합니다. 왜 심각하냐면요, 이 범죄 자체도 굉장히 문제가 되는, 죄질이 불량한 범죄이기도 하지만 10대들, 어린 청소년들 사이에서 이게 너무나 급속도로 확산 되면서 파고들고 있다는 거예요. 지금 가해자 4명 중에 3명이 10대다라는 얘기가 나올 정도로 이 10대들 사이에서 범죄의 피해, 또 가해가 일어나고 있는 상황입니다. 심지어 불법 영상물이나 제작물, 합성물의 온상이라고 불리는 텔레그램에서는요, 무려 22만 명이 참여하고 있는 채널이 있다는 거예요. 그런데 이 채널이 상당히 기가 막힌 게요, 들어가서 이 지인의 얼굴 사진을 보내주면 불과 5초 만에 불법적으로 합성한. 그러니까 딥페이크라는 것이 결국에 AI 기술을 활용해서 만드는...

◎송영석: 그렇죠.

▼허주연: 가짜 합성 사진이나 영상물을 얘기하는 거잖아요. 지인의 사진을 보내주면 그 얼굴 가지고 불법적인 어떤 음란물 합성 사진을 불과 5초 만에 만들어서 보내준다는 거예요. 2장까지는 무료로 만들어주고 그다음부터 유료로 전환되는데, 비용도 하나에 700원이 채 되지 않을 정도로 저렴한 가격이다 보니까 여기 들어가서 10대들이 막 친구들 사진 보내주면서 이런 불법 합성물을 처음에는 장난으로 시작하는데, 이게 사실은 범죄거든요. 경각심이 굉장히 떨어지고 있는 상황에서 너도 나도 이렇게 하다 보니까 이 범죄가 급속도로 퍼져나간다는 거고요. 더 문제는 이 22만 명이 가입해 있는 텔레그램 채널방이 운영자를 알 수가 없어요. 왜냐하면, 운영자도 인공지능 로봇이라는 겁니다. 텔레그램이라는 채널 자체가 굉장히 보안성이 높고 범죄에 협조를 잘 안 하는 그런 특성을 갖고 있는 플랫폼인데, 운영자마저 베일에 가려 있는 상황이다 보니까 사태가 심각한 지금 그런 상황입니다.

◎송영석: 그 운영자를 잡기도 쉽지 않고 그리고 그만큼 많은 사람들이 그 텔레그램 방에 있다면 누구나 가해자가 될 수도 있고 피해자가 될 수도 있는 그런 위험에 노출돼 있는 거군요.

▼허주연: 그게 굉장히 무서운 거죠. 왜냐하면, 지금 앵커님도 그렇고 저도 그렇고 얼굴이 공개되어 있지 않습니까? 그런데 우리처럼 공개되어 있는 그런 TV에 많이 나오는 사람들을 대상으로, 처음에는 연예인들이라든가 이런 사람들 대상으로 이런 범죄가 나오기 시작하다가 지금 이게 더 심각한 게 뭐냐면요, 요즘에 다 휴대전화에 카메라 있잖아요.

◎송영석: 그렇죠.

▼허주연: 1인 1 카메라 시대라고 해도 과언이 아닌데, 그냥 친구의 사진을 찍어서, 우리 사진 찍는 데 별로 거부감이 없잖아요.

◎송영석: 공유하잖아요, 그리고.

▼허주연: 그렇죠. 그런 것들 단체방에서 공유하곤 하는데, 그런 사진들로도 얼마든지 피해자가 될 수 있다는 거예요. 피해자도 가리지 않습니다. 친구부터 시작해서 교사, 군인 그다음에 심지어 가족의 사진을 이런 식으로 하는 경우도 있다는 거예요. 그래서 이게 지금 누구나 피해자가 될 수 있는 상황이고 특히 어린 10대들이 자신의 프로필 사진 같은 것들 SNS에 게시했다가 피해를 볼 수도 있는 상황이고 이러다 보니까 모두가 사실 피해자가 될 수 있는 상황이라서 더 우려스럽습니다.

◎송영석: 모두가 피해자가 되고 있는 상황. 그런데 10대 피해자가 많다고 앞에서 말씀해 주셨는데, 연령대별로 보니까 피의자도 그렇고 피해자도 그렇고 10대가 가장 많다면서요?

▼허주연: 그렇습니다. 허위 영상물 관련 범죄 피의자 수가요, 2023년 기준으로 전체 120명 중에 무려 75.8%인 91명이 10대였다고 합니다.

◎송영석: 저렇게나 많습니까?

▼허주연: 그렇습니다. 가해자가 지금 75% 이상이 10대라는 거예요. 그런데 올해 상반기 기준으로 보면 이게 더 늘어났습니다. 그러니까 이게 2023년 전체 기준으로 10대 가해자가 91명이었는데, 지금 상반기 10대 가해자가 73.6%, 무려 131명에 달한다는 거예요.

◎송영석: 상반기에만.

▼허주연: 그렇죠. 그러면 올해 내내 지금 만약에 범죄가 더 확산이 된다고 하면 그야말로 10대 가해자 수가 엄청나게 늘어난다는 거고요. 지금 피해 지원 요청, 그러니까 피해자도 10대가 늘었습니다.

◎송영석: 피해자도요.

▼허주연: 그렇습니다. 이게 2022년 기준으로 10대 피해자가 64명이었는데요. 올해 기준으로 288명으로 무려 4.5배나 증가를 했거든요?

◎송영석: 심각하군요.

▼허주연: 그렇죠. 그러니까 또래 집단들 사이에서 또래를 대상으로 한 가해와 피해가 늘어나고 있다. 이렇게 보셔야 될 것 같습니다.

◎송영석: 이 정도면 교육 당국에서 나서야 되는 거 아닌가요?

▼허주연: 지금 교육부가 긴급 피해 현황을 조사를 했는데요. 전국 학교에서 196건의 피해가 접수가 됐다고 합니다. 올해 1월부터 어제까지입니다. 그러니까 상반기만 기준으로 보셔야 되는 거예요. 상반기 기준으로 이렇게 허위 합성물 피해를 입은 학생이요.

◎송영석: 200건 가까이 되는군요.

▼허주연: 그렇습니다. 186명이 된다고 하고요. 그리고 교사, 교원 피해도 10명으로 집계가 됐다고 하는데요. 지금 179건이 교육 당국 수사 의뢰로 수사 진행 중인 상황입니다.

◎송영석: 이게 피해 학교 지도가 나올 정도로 심각하다던데, 이 지도에 나온 그 내용이 만약에 사실이 아니라면 언론들이 이렇게 이슈화하지 않았을 텐데, 확인해봤더니 사실인 경우가 많다는 거 아니에요?

▼허주연: 그렇습니다. 이게 알려지기로는 한 중학생이 피해 정도가 너무나 심각하다는 걸 알리기 위해서 이 지도를 직접 만들었다고 하는데요. 이 지도를 보면 지금 붉게 표시된 곳이 피해 학생들이 있는 것으로 추정되는 학교인데...

◎송영석: 그렇습니까?

▼허주연: 사실 뭐 지역을 가리지 않습니다. 거의 전국적으로 저렇게 많이 붉은 점이 거의 점으로 보기 어려울 정도로 뭉쳐서 붉게 표시되어 있다는 거는 정말 엄청난 학교에서 피해자들이 있다는 얘기고, 저는 조금 하나 우려스러운 점은, 이게 피해 학생들의 개인 정보가 도대체 얼마나 많이 노출이 되어 있길래 학생이 이렇게 지도를 만들 수 있을 정도로 명단이 공개가 되고 있다는 그런 얘기도 있거든요.

◎송영석: 저게 다가 아닐 수도 있잖아요, 또.

▼허주연: 그렇습니다. 그런데 피해자들 입장에서는 아주 사소한 개인정보라도 알려지는 게 상당히 두려운 일이기 때문에 이 지도가 시사하는 바가 그만큼 피해자들의 개인정보가 많이 알려져 있다. 그리고 피해가 심각하다. 이런 것으로 정리를 해볼 수 있을 것 같습니다.

◎송영석: 그렇군요. 교육부가 어떻게 대응하겠다, 대처하겠다, 이렇게 발표한 내용도 좀 있나요?

▼허주연: 교육부 대응으로는 지금 딥페이크 관련 사안을 매주 한 번씩 조사를 하고 전담 조직을 구성하기로 했습니다. 그래서 피해 학생과 교원의 심리 지원, 또 학교 예방 교육, 인식 개선, 이런 것들을 한다고 하고요. 특히 지금 10대들의 피해와 범죄가 많은 이유가 뭐냐면, 또래 집단에서의 어떤 심리, 그러니까 또래 집단에 속하고 싶은 심리와 그 안에서 관심을 받고 싶은 영웅심리를 부추기는 분위기라는 거예요. 그러니까 들어가서 이런 지인이라든가 아니면 가족사진으로 이렇게 만들어서 보여주고 하면 영웅이다, 너 대단하다, 이렇게 얘기를 하고. 그렇게 하지 않는다고 하면 그 단체 채팅방에서 내보내기를 한다든가 사이버 왕따를 시킨다든가 이런 식으로 번지고 있다는 거예요. 전담 조직이 구성이 돼서 이게 잘못된 영웅심리라는 것을 교육 현장에서 알려주고 인식을 개선할 수 있는 그런 조치들이 있어야 된다고 생각이 듭니다.

◎송영석: 지난 5월에 발생한 사건이었죠. 이른바 서울대 N번방, 대학생들 같은 경우는 징역형이 선고되고 처벌을 받는데, 10대 학생들은 처벌할 수가 있나요?

▼허주연: 10대 학생들이 그것도 문제입니다. 그러니까 만약에 가해자가 10대인 경우에는요, 아시는 것처럼 촉법소년이라고 하면 당연히 형사처벌 대상이 될 수는 없을 것이고, 그리고 만약에 그 이상 나이가 된다고 하더라도 형사처벌 대상은 될 수 있을지언정 소년법의 적용을 받기 때문에 부정기형을 선고를 받게 됩니다. 그런데 이렇게 딥페이크, 그러니까 허위 영상물이나 사진 같은 것들을 제작해서 유포하고 이런 처벌이 근거 규정들이 다 유형마다 있기는 하지만 실제 양형 기준이 그렇게 높지 않고 실제로 처벌이 이어지는 경우에도 상당히 경미한 수준의 처벌이 나오는 경우가 많았거든요. 그런데 말씀하신 이른바 서울대 N번방 사건 공범은 지금 징역 5년 형을 선고를 받았는데, 이게 법 감정이라든가 범죄의 피해 정도에 비해서는 만족할 만한 수준은 아닐지언정 최근의 사건들 중에서는 그만큼 죄질이 불량하고 피해자의 인격을 말살했다는 이유로 비교적 높은 형량을, 다른 사례와 비교했을 때는 높은 형량을 선고받았다고 볼 수 있거든요. 좀 엄벌에 처해져야 한다는 생각이 듭니다.

◎송영석: 가해 학생 부모들 사이에서 증거를 부모가 대신 삭제해 주려는 그런 부모들도 있다고 하던데. 처벌하기에는 한계가 있는데, 이거는 예를 들어서 교육 당국이 지금 이제 막 찾고 조치를 취한다는 상황에서 뭔가 선제적으로, 뭔가 좀 법적 처벌까지 가능한지 모르겠습니다만 그래도 학생이 학교에서 적발될 거 아닙니까? 그걸 좀 막기 위한 그런 조치라고 봐야 될까요?

▼허주연: 이게 일종의 증거인멸 행위인 거죠. 그런데 아이들이라고 하니까 부모가 혹시 내 아이가 호기심에 이런 걸 했는데 혹시라도 문제가 생길까 봐 증거인멸 행위를 하는 거라고 보시면 되는데, 아이들한테 이거 잘못된 거라고 알려주고 강하게 따끔하게 혼내는, 처벌하는 그런 부분들이 필요하다는 생각이 들고요. 그리고 이게 한 가지 또 제가 지적하고 싶은 부분은, 이런 식으로 해서 다 지워지지 않습니다. 왜냐하면, 이게 삭제하는 속도보다 유포되고 퍼지는 속도가 훨씬 빠르거든요? 이 디지털 성범죄라는 것은 증거를 남길 수밖에 없습니다. 이거 포렌식하고 이러면 어디선가 반드시 흔적이 남기 마련이에요.

◎송영석: 그렇죠.

▼허주연: 그런데 이걸 역으로 말씀드리면 그만큼 디지털 성범죄로 인한 피해는 지워지지 않는 것이라는 얘기도 될 수 있거든요. 그래서 이걸 삭제를 한다고 하더라도 이 부분 항상 증거를 남긴다는 건 명심하셔야 될 것 같고요. 그만큼 피해가 확산 속도도 빠르고 지워지지 않는 피해를 남긴다는 점에서 디지털 성범죄에 대한 경각심이 더 높아져야 된다는 생각이 듭니다.

◎송영석: 그런데 허위 영상물 제작, 유포 시에는 처벌이 되는데, 그 영상을 보거나 단순히 소지한 사람은 또 처벌할 수도 없다면서요?

▼허주연: 이게 아동 청소년이 나오는 영상을 보거나 소지하는 경우에는 처벌 규정이 있고요. 그리고 카메라 등 이용 촬영죄, 그러니까 피해자 의사에 반해서 불법적으로 촬영한 영상물을 소지하거나 시청하는 행위도 처벌 규정에 있는데요. 문제는 성인 피해자의 얼굴과 음란한 내용의 어떤 다른 영상이나 사진을 합성한 거를 소지하거나 시청하는 경우에는 처벌 규정에 없습니다. 그런데 성인 피해자라고 하더라도 아동 청소년의 피해 또는 불법적으로 촬영 당한 사람의 피해와 크게 그 죄질이 다르지 않다고 저는 생각을 하거든요. 아무리 성인이라고 하더라도요, 자신의 얼굴과 음란물이 이렇게 합성이 돼서 돌아다니는 걸 보면 그 충격이나 이런 것들을 이루 말로 할 수가 없고. 말씀드린 것처럼 디지털 성범죄는 지워지지 않는 상처로 남습니다. 어디선가 뭐가 튀어나올지 모르고 어디에 뭐가 남아 있을지 모르는 상황이라는 거예요. 그래서 이걸 단순히 소지하고 시청하는 것, 물론 입증의 문제도 있고 가벌성이 넓어진다는 그런 지적도 있기는 합니다만, 다른 어떤 범죄, 유사한 범죄와의 처벌 규정과의 형평성을 생각해서라도 이 부분에 대해서는 단순 소지나 시청 또는 처벌하는 규정이 신설돼야 하는 것이 아닌가, 저는 그런 생각이 듭니다.

◎송영석: 다른 유사한 성범죄 비교해서 말씀해 주셨는데, 이게 뭐 디지털상에서 일어나다 보니까 물리적으로 접촉은 안 하잖아요. 그렇기 때문에 낮은 건가요, 상대적으로?

▼허주연: 이게 아무래도 직접적인, 물리적인, 성범죄, 기존의 성범죄들은 직접적인 어떤 접촉이라든가 강제 추행이라든가 이런 행위를 수반하는 행위이고 그런 것들로 인해서 죄질이 나쁘다고 생각해온 것이 우리의 고정관념이었습니다. 하지만 시대가 바뀌었죠. 디지털 AI 기술의 발전이 인류에 도움이 되기도 하지만 이걸 악용해서 범죄로 발전할 경우에는 또 다른 피해가 양산이 될 수밖에 없고, 그 피해가 실제 신체 접촉과 비교해서 결코 더 낮다, 혹은 가볍다라고 우리가 단정 지어서는 안 되는 부분이거든요. 말씀드린 것처럼 이거를 합성된 사진을 자신이 봤을 때 그 정신적인 충격이 실제 어떤 우리가 일반적으로 생각했던 물리적 접촉의 어떤 피해보다 결코 가볍다고 볼 수는 없습니다. 그래서 이런 부분에 대한 경각심이 기존의 어떤 고정관념과는 다른 부분이다 보니까 그동안은 감수성이 낮았던 부분이었는데요. 이런 부분에 대한 어떤 경각심이 고취가 돼서 비슷한 처벌 수위로 이 개선이 이루어져야 하는 부분이 있다는 생각도 듭니다.

◎송영석: 피의자도 그렇고 피해자도 그렇고 10대가 가장 많다고 하니 이게 심각한 사회 문제가 아닐 수 없습니다. 서둘러서 보완책을 마련해야겠습니다. 오늘 말씀 여기까지 듣죠. 허주연 변호사였습니다. 고맙습니다.

▼허주연: 감사합니다.

이 기사가 좋으셨다면

오늘의 핫 클릭

실시간 뜨거운 관심을 받고 있는 뉴스

이 기사에 대한 의견을 남겨주세요.

수신료 수신료