[성공예감] 트럼프도 당한 딥페이크, 의심하고 또 의심하라 – 김상윤 교수 (중앙대 컴퓨터학과)

입력 2024.09.10 (15:36)

읽어주기 기능은 크롬기반의
브라우저에서만 사용하실 수 있습니다.

=======================================================
인터뷰 자료의 저작권은 KBS라디오에 있습니다.
전문 게재나 인터뷰 인용 보도 시,
아래와 같이 채널명과 정확한 프로그램명을 밝혀주시기를 바랍니다.
=======================================================
- 딥페이크, 美 커뮤니티 레딧에서 처음 등장..영상도 딥러닝
- 美 시큐리티히어로 "세계 딥페이크 주인공 절반이 한국"
- 해외도 딥페이크 처벌 초읽기..영국은 '온라인 안전법' 발표
- 워터마킹·태깅 정보로 방어 가능하지만..의무화 필요성도
- 트럼프-엡스타인 사진도 딥페이크, 빠르게 유포돼 피해 커져
- 입모양 맞춰 더빙, 의료적 활용 등 딥페이크 기술 순기능도
- AI 부작용, AI로 막는다..인텔, 가짜 영상 잡는 '페이크캐처' 개발

■ 프로그램명 : 성공예감 이대호입니다
■ 방송시간 : 9월 10일(화) 09:05-10:53 KBS1R FM 97.3MHz
■ 진행 : 이대호
■ 출연 : 김상윤 연구교수 (중앙대 컴퓨터학과)



◇이대호> 성공예감 이대호입니다. 2부의 문을 열겠습니다. 여러분 요즘 걱정되는 뉴스 많이 들어보셨을 겁니다. 딥페이크, 딥페이크라고 하는데. 이게 그냥 과학기술인 줄 알았는데 우리 일상 속으로 깊숙이 들어와서 곳곳에서 또 나쁜 짓 하는 사람들도 많이 있습니다. 같이 한번 배워보시죠. 중앙대학교 컴퓨터 공학과 김상윤 연구교수와 함께합니다. 안녕하세요. 교수님.

◆김상윤> 네, 안녕하세요.

◇이대호> 우선은 저희가 노래 한 곡 잠깐 듣고 이야기를 이어가 볼게요. 이게 원래 비비 씨의 밤양갱이라는 노래. 가수 장기하, 양희은, 아이유 또 코미디언 박명수 씨까지 메들리로 불러주신 건 아니고 이게 가짜 목소리라는 거죠.

◆김상윤> 직접 부른 게 아니죠.

◇이대호> 아니죠. 합성한 거죠. 너무 똑같은데요?

◆김상윤> 합성은 원래 오리지널 음에다가 이렇게 다른 분들의 목소리를 변조한 거죠.

◇이대호> 그런데 이게 그 사람의 음정, 높낮이, 음색, 목소리의 떨림까지도 다 학습을 해서 이렇게 된 거예요?

◆김상윤> 기존에 음성 합성 기술이 워낙 발전하다 보니까 그것을 학습했다라고 말할 정도까지 안 가더라도 지금 이 변조는 아주 쉽게 진행이 될 수 있습니다.

◇이대호> 아주 쉽게요. 이런 거는 누워서 떡 먹기입니까?

◆김상윤> 네. 음성 인식이나 합성 기술은 상당히 진척되어 있죠.

◇이대호> 아니, 그러면 우리 중앙대학교 김상윤 연구교수와 이야기를 계속 나눠보고 있는데요. 그럼 방금 우리가 들었던 그 합성된 음악은 이건 딥페이크입니까? 정의를 내리자면.

◆김상윤> 네, 딥페이크는 사실 영상과 사진 합성 기술에서 용어가 나온 것이고요. 이것은 그냥 음성 합성 기술, 음성 변조 기술 정도로 얘기를 할 수 있겠죠.

◇이대호> 그러면 그 정의 범위를 어디까지 봐야 하나요? 딥페이크, 뭔가 페이크는 속인다는 뜻이잖아요. 어떤 안 좋은 의도를 갖고 있으면 다 딥페이크라고 볼 수 있을까요?

◆김상윤> 기술적으로는 사실 이게 안 좋다, 좋다라고 말하기가 그렇죠. 왜냐하면 기술 용어는 우리가 이 기술 자체를 우리가 부정적으로 볼 수는 없기 때문이죠. 그런데 딥페이크라는 용어 자체가 실제로 한 아이디에서 출발했습니다.

◇이대호> 아이디요?

◆김상윤> 네, 영상 합성 프로그램을 레딧이라는 공유 플랫폼에 올린 이 사람의 아이디가 딥페이크였고요. 그러다 보니까 그 프로그램이 너무 훌륭한 거예요. 그래서 많은 사람들이 그 프로그램을 이용해서 유명인을 합성한다든지 본인 사진을 합성한다든지 이렇게 활용하다 보니까 댓글에 너무 훌륭하다라는 극찬이 달리다 보니 이 사람의 프로그램을 만든 아이디가 그 기술을 칭하는 용어가 돼버렸죠. 그런데 딥페이크라는 것은 이 용어, 아이디를 만든 사람은 다른 의도가 있을지도 모르겠지만 우리가 해석하기로는 딥러닝의 딥과 페이크 가짜를 말하는 단어 두 단어의 합성어입니다. 그리고 딥러닝이라고 함은 인공지능 분야의 데이터를 학습하는 방법이거든요. 인공지능이 인간이 부여한 여러 데이터를 인공신경망이라고 하는 아주 구조화된 복잡한 단계를 통해서 학습합니다. 그런데 그 학습 과정에서 영상과 사진도 그 학습 대상이 된 거죠. 그러다 보니까 진짜를 가짜처럼 만드는 것까지 이른 것이고 우리가 이것을 딥페이크라고 부르게 된 것이죠.

◇이대호> 7*** 님이 목소리 AI로 라디오 방송 진행도 대본만 써놓고 AI가 진행하는 시대도 오겠네요, 이렇게 보내주셨는데. 가능하겠죠?

◆김상윤> 이미 유튜브 많은 채널들이 본인의 목소리를 드러내고 싶지 않은 분들이 실제 AI 목소리에 입혀서 자신의 원고만 쓰고 그 원고조차도 요즘 생성형이, 챗GPT가 써주기도 하죠. 그러다 보면은 실제 인간의 작업은 없어지는 상황들. 많은 채널에서 우리가 확인할 수 있죠.

◇이대호> 원고까지도 인공지능으로 생성을 해서 목소리도 입히고 이게 점점 더 정교해지고 또 중요한 거는 이게 누구나 쉽게 접근해서 실제로 만들 수 있다는 거잖아요. 돈만 내면.

◆김상윤> 요즘 오픈 소스가 유행하고 있죠. 본인이 만든 프로그램이나 소스 코드를 공유 게시판에 공개합니다. 그 말은 이것을 가져다가 쓰기가 너무 쉬워졌다라는 거죠. 사용자 입장에서도 완성된 프로그램을 다운받아서 그것을 방법에 맞게 활용만 하면 내가 딥페이크 영상과 사진을 만들 수 있다라는 거예요. 제가 실제로 저희 학교 연구원들과 함께 스왑페이스라는 프로그램, 하나의 딥페이크 프로그램을 한번 실행을 해봤는데. 실제로 제 사진을 올려서 목적하는 합성하고자 하는 영상에 붙여서 만드는 데 1분도 채 걸리지 않았습니다. 우리가 기술적으로 소스(Source)와 타깃(Target) 그리고 결과(Result), 이렇게 얘기를 하는데요. 소스는 뭐냐 하면은 내가 입히고 싶은 그 대상 영상입니다. 타깃은 저의 영상이에요. 제 사진. 그래서 소스와 타깃을 지정하면 예를 들어 제가 탐 크루즈 모습에 제 얼굴을 입히고 싶다, 그러면 탐 크루즈 사진이나 영상이 소스가 되는 거고요. 제 사진이나 영상이 타깃이 되는 겁니다. 그것을 합성해서 실행을 누르면 결과가 합성된 형태로 나오는 것이죠. 대부분이 이 딥페이크 프로그램들이 이런 방식으로 기능이 구현되다 보니까 너무나 쉽게 일반인들도 활용할 수가 있는 것이죠.

◇이대호> 이게 그런데 누구나 일반인들도. 그런데 교수님께서 활용하신 프로그램은 공개된 프로그램인 거고요. 누구든지 내려받기 해서 쓸 수 있는.

◆김상윤> 네, 공개된 프로그램입니다.

◇이대호> 그런데 이게 참 기술이라면 발전하는 게 좋기는 한데 안 좋은 곳에 쓰이니까 문제 아닙니까? 범죄로 지금 많이 악용되고 있잖아요. 특히 최근에 또 사회적으로 음란물 이것도 많이 문제가 되고 있고.

◆김상윤> 딥페이크라고 하는 것이 일단 용어 자체가 부정적이다 보니까 범죄에 활용될 가능성이 더 크다. 그리고 이것을 부정적으로 더 인식하는 경향이 크죠. 실제로 최근 국내에서 심각한 사회 문제가 되고 있는 것이 여중, 여고생들이 피해를 입었어요. 그러니까 학교 홈페이지에 학생들의 사진이 공개되어 있잖아요. 그거를 다운받아다가.

◇이대호> 졸업 사진일 수도 있고.

◆김상윤> 그렇죠. 아니면 거기 링크에 들어가서 각 학생들의 SNS에 들어가서 그 사진이나 영상들을 가지고 이 딥페이크 프로그램을 실행을 해서 여중, 여고생들의 미성년자의 사진과 영상을 딥페이크로 제작한 그런 사례들이 지금 사회에 심각한 문제가 되고 있죠.

◇이대호> 아니, 얼마 전에 미국의 사이버 보안업체 시큐리티 히어로라고 하는데 여기에서 내놓은 자료를 보니까 대한민국의 딥페이크 성착취물이 문제고 취약국가 1위다, 이런 평가가 나왔습니다. 이거는 어떤 배경에서 그런 거예요?

◆김상윤> 저도 이 뉴스를 듣고 좀 되게 심각하구나. 그래서 저도 이 보고서를 좀 읽어봤는데요. 지난 7~8월 딥페이크 관련 사이트들이 있어요. 유명 사이트들이. 물론 좋지 않은 사이트들이죠.

◇이대호> 커뮤니티, 막 자기가 만든 거 자랑하고 막 이런.

◆김상윤> 그렇죠. 자랑하거나 아니면 성인 동영상이 올라오는 사이트라든지. 그곳에 10곳을 대상으로 시큐리티 히어로라는 업체가 조사를 했는데요. 실제로 약 10만 건의 올라온 영상이나 사진을 분석한 결과 그중에 등장하는 인물의 원 소스가 한국인이다라고 유추되는 것이 53%인 거예요.

◇이대호> 거의 절반이요?

◆김상윤> 네, 전 세계 사이트를 대상으로 했는데요.

◇이대호> 아니, 그거는 그러면 한국인이 한국인을 타깃해서 그렇게 합성한 걸까요? 아니면 외국인이 외국에서 그렇게 합성을 한 걸까요. 그건 알 수가 없나요?

◆김상윤> 네, 그런데 주로 뒤에 내용들을 읽어봤더니 주로 K-팝 스타가 많아요. 최근 K-팝이 전 세계적으로 유행을 하다 보니까 K-팝 스타, 딥페이크가 실제로 뒤에 다른 조사도 있는데 10대들의 활용도가 상당히 큽니다. 이게 더 심각한 사회문제예요.

◇이대호> 10대들의 활용도라고 하면 10대들이 이걸 만들어본다는 거예요?

◆김상윤> 딥페이크를 직접 프로그램을 써서 자기가 만들어본다라는 거죠.

◇이대호> 우리나라 아이들 똑똑한 건 알겠는데, 그런 식으로 그런데.

◆김상윤> 이거를 분명히 하셔야 될 게 딥페이크 자체는 용어 자체가 너무 부정적으로 이름이 지어졌는데 이 자체는 나쁜 것은 아니에요.

◇이대호> 그렇죠. 기술이니까.

◆김상윤> 그렇죠. 기술이고 내가 내 사진을 뭔가 재미로라도 다른 사진에 연예인 얼굴에 합성해 본다. 연예인 몸에 합성해 본다. 이런 것들 자체가 나쁜 건 아니잖아요. 그런데 이것을 활용할 때 성착취물. 그러니까 이게 성적인 어떤 본인에게 피해를 줄 수 있는 혹은 사회적으로 부정적인 활용도가 있다라는 것이 문제인 거죠. 그래서 결국 이 10대들이 호기심을 가지고 디지털에 익숙한 세대다 보니까 이 딥페이크 프로그램을 가장 많이 쓰고 있는 것으로 나타났고 그러다보니까 앞서 말씀드린 시큐리티 히어로 조사에도 이 K-팝 연예인들을 대상으로 10대들이 이것을 올렸을 가능성이 크다, 이렇게 분석이 되고 있죠.

◇이대호> 곽** 님이 온라인 상에 내 정보가 떠돌아 다닐까 무서워서 더더욱 안 해야지라는 생각이 드네요라고 이제 SNS 쓰는 것도 무섭다. SNS에 가족들 사진 함부로 올리면 안 될 것 같다라고 보내주셨는데. 참 그것도 중요하죠. 어디서든, 누군가든 카톡이 됐든 SNS의 사진을 다 퍼가서 그냥 붙이기만 하면 되니까. 혹시나 이게 처벌 수위나 아니면 이런 거 하면 큰일난다라는 법 제도는 좀 제대로 갖추어져 있나요?

◆김상윤> 직접적인 딥페이크 관련된 법안은 아직 미미한 편이고요. 대체적으로 우회적인 방법으로 법적 처벌을 하고 있습니다. 무슨 말이냐면 예를 들면 성폭력 범죄, 공연음란죄, 초상권 침해죄 이런 것으로 이것에 피해를 받은 사람이 신고를 해야 돼요. 그러면 여기에 대해서 조사를 해서 법적인 어떤 제재를 가할 수 있습니다. 그런데 명확하게 이것이 딥페이크의 어떤 배포자나 생산자나 유포자에 대한 처벌에 관해서는 아직까지 법적 제도적 정비가 필요한 영역입니다.

◇이대호> 다른 법을 우회해서 다른 법으로 처벌을 받지 딥페이크 자체로는 아직까지는 그런 법적 처벌 근거는 없고. 다른 나라는 어떻습니까? 다른 나라들은 이 딥페이크를 좀 규제하려는 움직임이 좀 있나요?

◆김상윤> 다른 나라도 이게 이슈가 워낙 심각한 사회 문제를 만들다 보니까 여기에 대해서 관심이나 여러 가지 사회적인 컨센서스는 만들어지고 있는데요. 미국 같은 경우에도 우리나라와 마찬가지로 아직까지 법적인 제도적인 정비는 초읽기 단계입니다. 주 정부 차원에서는 딥페이크를 범죄로 보고 규정한 곳이 일부 있지만 아직 연방법에서는 딥페이크 성착취물을 명시한 법적 조항이 없습니다. 그러나 유럽은 조금 앞서 있죠. 유럽의 경우에는 유럽 연합 자체의 디지털 서비스법이라고 해서 온라인 플랫폼에 유해 콘텐츠를 올렸을 경우에 어떤 법적 제재를 가할 수 있는지가 명시되어 있기도 하고요. 또는 프랑스 같은 경우에는 플랫폼에 대해서 상당한 책임을 부과하고 있습니다. 이런 성착취물이나 부정적인 딥페이크 영상들이 올라온 그 플랫폼에 대해서 상당히 제재를 가하고 벌금을 주고 혹은 책임자를 처벌하는 조항들이 강력하게 지금 정해져 있고요. 영국 같은 경우에는 지난 4월이죠. 온라인 안전법이라는 것을 개정해서 당사자가 동의 없이 악의적으로 딥페이크 성착취물 같은 이런 영상들을 올렸을 경우에 이 제작자에 대해서 형사 입건한다, 이런 것들이 발표되기도 했습니다.

◇이대호> 김** 님 딥페이크 정말 문제군요. 범죄자들에게는 엄한 처벌이 필요합니다. 이렇게 또 지적하시는 목소리들도 계속 올라오고 있습니다. 인터넷 댓글 같은 경우에도 물론 이걸 실명제로 해야 한다 논쟁은 좀 있습니다만 추적을 하다 보면 누가 썼는지 또 알 수 있는 방법이 있지 않습니까? 특히 국내 포털 같은 경우에는 딥페이크 같은 경우에는 영상물을 누가 만들었다 누가 유포했다라고는 알아낼 수 있을까요?

◆김상윤> 일단 아이디 추적한다는 것은 모든 콘텐츠에 공통적으로 해당되기 때문에 그런 방법은 사용할 수가 있죠. 다만 문제는 우리가 익명 게시판 같은 아이디나 이런 나의 개인정보가 연결되지 않은 게시판들이 생각보다 많다라는 거예요. 그러면 이것을 추적할 수 있는 방법은 유일하게 IP 추적이라든지 혹은 여러 다른 방법들을 쓸 수밖에 없거든요. 그런 측면에서 실제로 이 성착취 영상이 여기저기 퍼지는 것은 우리가 텔레그램과 같은 개인 추적이 불가능한 플랫폼들에서 아주 일상화가 되어 있습니다. 그러다 보니까 추적이 불가능한 측면이 있고요. 다만 최근에 이것을 추적 가능하게 한 다른 방법의 기술들이 개발이 되고 있긴 합니다. 예를 들면 워터마킹 기술이 있어요. 딥페이크 프로그램을 썼을 때 최종적인 결과물에 대해서 워터마크를 찍어주는 거예요. 어떤 건지 아시죠.

◇이대호> 화면상에 약간 반투명한 글자가 나오는.

◆김상윤> 그렇죠. 이게 어느 프로그램에서 제작되었다라는 것을 낙인을 찍어주는 거죠. 그러면 그 어떤 사람이 보더라도 그 영상과 사진에 대해서 어느 프로그램으로 제작되었다. 즉, 딥페이크 영상이다 아니다를 확인할 수 있게 하는 거죠.

◇이대호> 그런데 그게 또 왜 워터마크를 지우는 기술도 있지 않습니까? 이 워터마크를 영상 앞에 띄워놓는다고 해서 이게 실효성이 있을까요?

◆김상윤> 사실 참 이 기술이라는 게 재미있는 게 공격하는 기술이 발전하면 또 방어하는 기술이 발전하죠. 똑같은 상황이 예전 우리 인터넷 초기에도 벌어졌었는데요. 인터넷이 90년대에 막 보급되면서 개인들이 여기에 정보를 어디까지 올려야 되나, 그러면서 해킹을 당하거나 혹은 내 정보가 또 일부 다른 사람들에게 도용당하거나 이런 경우들이 생기다 보니까 백신 산업이 발달했습니다. 그래서 이 프로그램을 쓸 때 내가 인터넷 사이트를 쓸 때 이 백신을 깔아서 이런 여러 가지 침입으로부터 방지하는 기술들이, 방어 기술이 발전을 했죠. 그런데 문제는 순서가 공격 먼저라는 거예요. 공격이 들어와야 방어를 하니까.

◇이대호> 공격이 있어야 방어하니까.

◆김상윤> 네, 그래서 방금 말씀드린 것처럼 워터마킹 기술도 역시나 이것을 또 없애는 AI 프로그램도 지금 올라와 있습니다. 이게 결국 계속 공격하는 기술이 더 빠르다라는 거예요. 그래서 이런 부분도 역시나 아직 완벽히 안전한 어떤 기술 보호 형태는 아니다라는 건데 또 한 가지 방법으로는 지금 많은 기업들이 시도하고 있는 게 태깅 정보들을 다는 겁니다. 우리 태그라고 해서 우리 SNS 쓰시는 분들 태그를 단다 하잖아요.

◇이대호> 옷에 달려 있는 택처럼.

◆김상윤> 네, 맞습니다. 그래서 이 사진이나 영상을 설명하는 글이죠. 보조적인 글들. 예를 들어 이 영상은 무슨 뭐에 관한 영상이고, 언제 만들었고, 누가 만들었고, 어떤 프로그램에 의해서 가공됐고, 이런 설명하는 내용들을 이 영상이나 사진에다가 보이지 않는 태그를 달아주는 겁니다.

◇이대호> 만든 사람이?

◆김상윤> 아뇨, 프로그램 자체가.

◇이대호> 아, 프로그램 자체적으로 보이지 않게.

◆김상윤> 네, 그래서 이것이 유포됐을 경우에 이것을 태그 정보를 확인하는 절차를 통해서 이 사진이나 영상이 딥페이크인지, 유포자는 누구인지, 제작자는 누구인지, 어떤 프로그램을 만들었는지를 확인할 수 있는 것이죠.

◇이대호> 그 프로그램을 쓰는 사람이 나 모르겠지라고 막 이것저것 만들었지만. 그 만들어지는 과정 속에 어디에서 무엇에 대해서 어떻게 만든 거다라는 정보를 담고 있게끔. 그래서 나중에 그걸 열어서 보면은 누가 어떻게 만들었구나를 알 수 있게끔. 그러니까 영상 겉으로는 표는 안 나지만.

◆김상윤> 그런데 이것도 이제 공격이 가능한 게 태그 정보를 달아주는 하나의 기능을, 딥페이크 프로그램을 만드는 이런 아주 활발한 개발자들이 굳이 꼭 내 프로그램에 이걸 담을 필요가 없죠.

◇이대호> 그렇죠. 그러면 이제 사람들이 자기 프로그램 많이 안 사서 쓸 것 같으니까요.

◆김상윤> 그럴 수 있죠. 그렇기 때문에 이게 법 제도적으로 정비가 되지 않는 한 이게 기술 분야에서 자정적인 형태로 이런 태그 기술이나 워터마킹 기술을 활용하라라고 하는 것에는 한계가 있다 이렇게 볼 수가 있는 것이죠.

◇이대호> 그래서 이걸 완전히 의무화해버리자 이런 목소리도 그래서 나올 수밖에 없는 건데요. 자율에 맡겨버리면 뭐 일단은 내 프로그램 많이 팔아야 되는데 괜히 불편한 이런 거 담아서 뭐 하겠어 또 이럴 수도 있잖아요. 선량한 의도에만 기댈 수는 없는 거고요. 이 기술은 완전 초반이네요.

◆김상윤> 네. 아주 초반이고 실제로 아까 딥페이크의, 그 레딧이라는 게시판에 이 아이디로 이 프로그램 올린 사람에서 이름이 비롯됐다고 말씀드렸잖아요. 그게 2018년 정도였습니다. 딥페이크가 본격적으로 세상에 알려진 게 2018년부터라고 치면 그 이후 기술 발전이 더 고도화되어 왔고 최근 몇 년 사이에 벌어지고 있는 기술로 인한 세상의 변화다라고 볼 수 있겠죠.

◇이대호> 근데 이게 점점 더 정교해지다 보니까 더 혼란스러운 것 같습니다. 얼마 전에 이제 미국의 대통령 후보들까지도 합성된 영상, 이게 사진이 아니라. 한 반년 전쯤인가요, 작년인가요? 트럼프 전 대통령이 막 체포당하는 영상이 사진으로 합성된 것 때문에 실제로 그게 진짜인 줄 알고 막 보도를 냈던 해외 언론사도 있었고. 근데 이제는 아예 뭐 춤추는 모습, 서로가 부둥켜안는 모습 뭐 이런 것도 이제 영상으로 합성돼서 돌아다니고 있는데. 이게 참 어렵습니다. 헷갈립니다. 아까 텔레그램 잠깐 이야기를 해 주셨는데 해외 SNS 같은 경우에는 특히 뭐 검찰이나 경찰의 수사가 시작되더라도 협조를 그냥 안 해버리는 경우 있잖아요. 강제성도 없고. 그러면 현실적으로 이거를 악용한 사람을 잡아내는 데도 현실적으로는 좀 한계가 있을 수밖에 없는 거죠, 이거는?

◆김상윤> 그렇죠. 지금 이 텔레그램이 사실 전 세계적으로 이런 마켓셰어를 갖게 된 데는 그런 개인정보에 대한 상당히 프라이버시를 존중하는 그들 입장에서는 이렇게 주장을 하죠.

◇이대호> 익명성이 중요하다, 표현의 자유 중요하다 뭐 이런 거죠.

◆김상윤> 그렇죠. 그러다 보니까 텔레그램이 전 세계에 아주 큰 지금 마켓셰어를 갖게 됐는데 그 반면에 이 범죄에 악용되는 경우들이 너무나 많습니다. 범죄의 온상이 되기도 하죠. 그러다 보니 나쁜 소스 코드나 나쁜 콘텐츠들은 대부분 텔레그램을 통해서 전 세계에 퍼집니다. 이것이 이제 뭐 어떻게 보면 하나의 딜레마죠. 이게 표현의 자유나 혹은 개인정보 침해에 대해서 좀 자유도를 더 강화할 것이냐. 아니면 이것에 대해 피해를 보는 사회적 부작용에 대해서 또 강조해서 법적 제도적 장치를 만들 것이냐, 규제를 만들 것이냐. 이런 것에 대한 지금 여러 가지 혼란이 있는 것이죠.

◇이대호> 그 내용도 좀 포함이 된 걸로 알고 있는데. 그 텔레그램을 창업한 파벨 두로프가 얼마 전에 프랑스에서 체포됐지 않습니까? 체포될 당시만 해도 이제 극렬하게 막 반발을 하다가 요즘은 좀 이 사람 말이 달라졌더라고요. 범죄에 악용되는 기능을 삭제하겠다. 이거는 좀 어떻게 평가하십니까?

◆김상윤> 그게 이제 약간의 임시방편일 수도 있죠. 워낙 사회적 이슈들이 딥페이크뿐만이 아니라 텔레그램을 이용한 범죄라든지 마피아도 텔레그램을 이용해서 소통한다 이런 것도 알려져 있고. 또 개별 국가의 이런 보안이라든지 이런 것들을 또 허무는 사례들도 생겨나고 있고. 그러다 보니 국가들이 텔레그램을 상당히 경계하고 있습니다. 이렇게 찍어서 얘네들을 좀 이렇게 좀 다스려야겠다 이런 국가들이 생겨나고 있죠. 프랑스도 마찬가지 사례고요. 그러다 보니 이제 텔레그램도 어떤 액션이 필요합니다. 그들이 이제 사실 실제로 이 마켓셰어가 이렇게 성장한 것은, 매출이 이렇게 커진 것은 반대 급부의 어떤 제공을 했기 때문이죠. 그런 점에서 그들 입장에서도 상당한 고민 끝에 그래도 최소한의 액션은 취해야겠다라는 것에서 등장한 것이 이제 텔레그램에 악성 코드나 악성 콘텐츠, 사회적 부작용을 만드는 이런 성착취물 같은 콘텐츠를 올렸을 때는 제재하는 이런 제도들을 만들겠다라고 다소 유화적인 제스처를 취하는 것이죠.

◇이대호> 일단은 당장 잡혔고 엄청난 처벌을 받을 것 같으니까 어쩔 수 없는 또 그 선택일 수 있을 텐데. 그래서 이제 텔레그램이 굉장히 중요한 선례가 될 수도 있을 것 같습니다. 이게 국가적인 비용도 만만치 않을 것 같습니다. 기업도 마찬가지고 이 개개인의 고통은 이루 말할 수도 없을 테고. 국가적으로도 이런 딥페이크에 대처하는 또 그로 인한 사회적인 혼란에 따르는 비용은 우리가 이거 뭐 이제 산정해 낼 수도 없을 정도 아닐까요?

◆김상윤> 지금 우리나라의 경우에는 여중, 여고생들의 미성년자 피해도 있고요. 케이팝 스타 피해 말씀드렸습니다. 거기다가 전 세계적으로는 딥페이크가 상당히 유명해진 게 정치인들의 딥페이크 영상 사진이 앞서 말씀드린 트럼프와 같은 이런 사진들이 이제 확대되면서죠. 실제로 이게 이제 뭐 그냥 재미 정도로 치부될 만한 콘텐츠면 큰 문제가 없는데 이게 심각한 내용들이 담긴 경우들도 있습니다. 뭐 트럼프 같은 경우에 사실 아주 이슈가 됐던 적이 있는데요. 지난 대선 시점이었을 겁니다. 트럼프가 10대 소녀들과 어떤 엡스타인이라고 하는 정말 거대 부호의 개인 섬으로 이제 그 비행기를 타고 가는 사진이 언론에 공개가 됐어요. 엡스타인이라는 사람은 미성년자 성착취범으로 여러 번 이제 기소를 당하고 했었던, 부정적인 그런 인물이거든요. 그런데 이 트럼프도 거기 그 행사에 참여하는 거 아니냐. 미성년자 성착취에 가담하는 거 아니냐. 이렇게 알려졌는데 그게 결국 딥페이크 사진으로 알려졌죠. 근데 이게 문제는 이런 뭐 정치인이든 연예인이든 이런 딥페이크의 사진과 영상이 최초에 유포될 때는 상당히 빠른 속도로 확장이 됩니다.

◇이대호> 그렇죠. 다 사실인 줄 알고, 그냥.

◆김상윤> 그렇죠. 사람들은 가십을 좋아하잖아요. 그러니까 이런 일이 있더라. 퍼다 나르고 퍼다 나르고 하면서 순식간에 몇 백만 조회수를 찍어버려요. 근데 트럼프의 경우에도 며칠 후에 이것이 가짜임이 밝혀졌음에도 그 가짜라는 것을 설명한 그 콘텐츠의 조회수는 몇 십만이 채 나오지 않습니다. 그럼 이미지만 타격을 입고 그 이미지뿐만 아니라 정말 우리가 성착취물이라는 것은 개인의 명예나 어떻게 보면 정말 앞으로의 삶의 어떤 이런 것들, 관점들이 완전히 바뀔 수 있는 상당한 큰 피해인데도 불구하고 이것을 다시 돌이킬 수 없다라는 것이죠. 이게 더 심각한 문제라고 할 수 있겠죠.

◇이대호> 또 탄환이론이라는 게 있지 않습니까? 총알 한 번 쏴버리면 그냥 빠른 속도로 이미 날아가 버리고 어딘가에 이제 박혀버리듯이 그걸 되돌릴 수도 없는 거고 그렇게 빠르게 또 영향을 미치게 되는 건데 이게 딥페이크가 딱 그런 것 같습니다. 그래서 이걸 아무리 해명을 해도 특히 이제 뭐 유명한 사람들이야 자기 채널을 통해서 해명을 할 수도 있을 텐데 그게 아닌 사람들 같은 경우에는 이미 세상이 이제 나를 낙인찍어버린 거잖아요.

◆김상윤> 그렇죠. 해명의 기회도 없는 거죠.

◇이대호> 어렵습니다. 박** 님이 얼마 전에 그 안중근 의사나 유관순 열사가 환하게 웃고 있는 모습을 딥페이크로 만든 거 그 영상을 보셨다고. 뭉클했다. 권** 님도 독립운동가님들이 이제 사진으로 대한독립만세 움직이는 화면 만든 것도 보셨다고 했는데. 이런 건 좀 뭉클하긴 합니다. 우리가 유관순 누나나 또 이제 안중근 의사 이런 분들의 웃는 모습을 본 적이 없었는데 그분들이 우리나라의 독립을 보고 환하게 웃으시는 모습 보면 되게 좀 뭉클하긴 합니다. 근데 또 엄연히 따지면 또 가짜이기도 하고.

◆김상윤> 근데 이제 딥페이크 기술이 발전하다 보면 긍정적으로 활용할 수 있는 부분들이 바로 그런 부분들이죠. 역사의 고증이라든지 교육 자료로 이제 아주 생동감 넘치는 그 당시 인물의 표정이나 또 동작을 구현할 수 있다라든지 그거는 이제 실제로 과거로 돌아가서 사진과 영상을 찍어올 수 없지 않습니까? 그거는 이제 결국은 가공으로 만들어야 되는데 딥페이크라는 매우 정교한 기술이 고도화됨에 따라서 이것이 정말 효과적인 콘텐츠들로 만들어지는 것은 저는 긍정적인 부분이다 이렇게 말씀을 드립니다.

◇이대호> 뭐 대표적으로 흑백 사진을 컬러로 만든다거나. 그렇죠? 사진을 어떤 동적인 영상으로 만든다거나. 또 이것도 이제 논쟁이 있는데 돌아가신 분의 영상이나 음성을 또 복원한 것 가지고도 좀 논쟁이 있더라고요.

◆김상윤> 물론 이제 그것에 거부감이 있는 분들이 있죠. 왜냐하면 망자에 대한 예의를 갖춰야 된다. 뭐 이런 주장이 있을 수는 있지만 그것은 이제 결국은 활용하는 분들이 어떤 의미를 둘 것인가, 어떻게 가치를 만들어 갈 것인가의 차원이지 그것은 이제 긍정적인 활용이 될 수 있는 여지들이 있다라는 것이고 실제로 이 딥페이크가 세상에 긍정적인 영향을 끼치는 영역들도 많이 지금 발전하고 있습니다. 예를 들면 전 세계의 언어나 문화가 상당히 상이하잖아요, 각 국가별로. 여기에 대한 격차를 해소하는 데 딥페이크가 쓰이기도 합니다. 예를 들면 영화 좋아하세요?

◇이대호> 네.

◆김상윤> 그럼 이제 영화 자막으로 보는 걸 좋아하세요, 아니면 더빙으로 보는 걸 좋아하세요?

◇이대호> 자막으로 보는 게 익숙하기는 한데 좀 쉽지는 않죠, 사실은.

◆김상윤> 그렇죠. 국내 영화팬들은 대부분 자막에 익숙합니다. 우리나라는 자막이 어떻게 보면 하나의 표준으로 자리잡았기 때문이죠. 근데 우리나라를 제외한 다른 국가들, 특히 서방 국가들은 대부분 더빙을 봅니다. 그 말은 입 모양과 실제 언어가 완전히 달라진다라는 것이죠. 그럼 연기 자체에 뭔가 몰입을 좀 막는 부분이 되겠죠. 근데 이것을 딥페이크로 해소하고 있습니다. 이스라엘의 한 스타트업 딥덥이라는 업체는 우리 영화 뭐 예를 들면 넷플릭스의 아주 유명한 아주 인기를 끄는 프로그램이 있다. 그거를 자국의 언어에 맞게 딥페이크로 음성을 덮어버리는 거죠. 그렇게 되면 입 모양을 같게 만들 수 있습니다.

◇이대호> 그러니까 그냥 더빙만 자동으로 하는 게 아니라 입 모양까지 바꿔주는 거예요?

◆김상윤> 그렇죠. 딥페이크가 영상과 사진을 가공하는 기술이기 때문에 이것을 매우 실제와 유사하게 거의 똑같이 만들어준 게 딥페이크잖아요. 그러다 보니까 음성만 입히는 것이 아니라 그 음성에 맞게. 연기자 입 모양까지 바꿔주는 거죠. 이것은 어떻게 보면 뭐 문화 산업이나 언어적 격차를 해소하는 데 매우 효과적이다라고 말씀드릴 수가 있고요. 또 하나는 의료업계 의학 분야에서도 딥페이크가 활용되고 있습니다. 독일 뤼벡대가 이제 의료정보학 연구소를 통해서 상당히 깊이 있게 연구를 진행하고 있는데요. 예를 들면 우리가 암 진단을 할 때 CT나 MRI나 혹은 또 엑스선이나 여러 가지 이런 촬영 기법을 통해서 우리가 이제 이 암의 어떤 초기 단계를 진단하잖아요. 근데 이것이 이제 부정확할 가능성이 높죠. 근데 이거를 이제 실제 암이 발병했던 사람들의 사진이나 영상에 대해서 지금 이 사람의 체형이나 여러 가지 몸의 형태에 비춰봤을 때 이런 형태로 암이 발전할 것이다라는 걸 딥페이크로 만드는 거죠.

◇이대호> 예측을 해서 미리 예상도를 그려보는 거예요.

◆김상윤> 그렇죠. 그렇게 되면 중요한 것은 이 사람에게만 나타날 수 있는 암의 전이 속도라든지 모양이라든지 이런 것들을 미리 거의 실제와 가깝게 예측 정확도를 가지고 페이크를 만들어주니까 훨씬 더 진단하기가 쉬운 거예요. 왜냐하면 의학 정보, 의학 영역에서 디지털이 접목되기 가장 어려운 점이 지금까지의 환자 데이터들의 확보거든요. 그 암을 진단했을 때 암 환자의 사례를 가지고 이것을 분석해야 되는데 실제로 이제 암이 계속 줄어들고 있지 않습니까? 그럼 데이터 확보는 계속 어려워진단 말이죠. 근데 이거를 딥페이크 인공지능 기술을 이용해서 아주 정교한 이 전이 상태들을 사진이나 영상으로 제작할 수 있다라는 것은 의학 분야의 아주 획기적인 또 발전을 만들어 주겠죠.

◇이대호> 이렇게 긍정적으로 쓸 수도 있는데 이게 또 참 나쁜 사람들은 또 악용을 하고 있고. 그래서 기술 자체가 나쁜 게 아니라 이 기술을 어떻게 이용하느냐, 악용하느냐 그 차이일 수도 있을 테고요. 그 할리우드 영화 같은 경우에도 몇 년 전에 그랬었죠. 분노의 질주 촬영을 하다가 주연 배우가 안타깝게 이제 사망하는 일이 있었는데. 그 동생을 데려다가 연기를 시키고 얼굴을 좀 이렇게 변형을 해서 영화를 이제 완성을 했던, 그런 것도 어떻게 보면 이제 물론 이제. 물론 이제 그건 유가족이 동의를 한 거니까. 긍정적인 케이스라고 볼 수도 있을 테고요. 근데 그만큼 자연스럽다는 건 또 그만큼 분간해내기 어렵다라는 뜻이 될 테고요. 그게 어떤 영화 산업이나 엔터 예술의 영역을 넘어서 우리에게까지 또 가까이 올 수 있으니까. 이게 왜냐면 저도 방송을 통해서 여러 번 이야기를 했습니다만. 저희 부모님도 이제 보이스피싱에 당하셨었는데 제 목소리를 카피한 그거였던 것 같아요. 이제 보이스피싱을 넘어서 페이스피싱이 될 수도 있잖아요. 어느 날 갑자기 우리 가족에게 영상통화가 오는데 그 얼굴로 엄마, 아빠 하면서 돈 보내달라고 하면 거의 다 믿지 않겠습니까?

◆김상윤> 그렇죠. 심각한 문제죠. 스미싱이 요즘은 뭐 일반인들이 최소 한 달에 한두 번은 겪어보는 그런 상황인 것 같아요. 이제 이런 스팸 문자는 뭐 사실 아무것도 아닌 정도가 됐고. 이게 이제 음성을 위조하고 그리고 사진, 영상까지도 완벽히 위조가 가능한 시대가 되다 보니까 정말 이런 방어하는 기술들에 대한 발전을 우리가 좀 빠르게 좀 기대하고 관심을 가져야 되지 않을까 생각이 들 정도입니다.

◇이대호> 방어하는 기술. 이게 참 어떻게 보면 인터넷이나 컴퓨터 초반에 공격, 해커들이 생기면 또 방어하는 기술 만들듯이 똑같네요, 딥페이크에서도. 근데 그게 또 이제 AI 영역으로 가버리면 더 어렵고 이런 거는 없습니까, 혹시 기술적으로?

◆김상윤> 실제로 이제 AI 분야가 역사가 한 70년 됐거든요. 1950년부터 연구가 시작됐습니다. 결국은 여러 다양한 시도들이 있어왔고 사실 이런 위조, 변조, 가공이라는 영역만 보면 사실 음성을 타깃으로 가장 빠르게 발전을 해왔죠. 그래서 지금 최근에 이제 이런 범죄들이 아주 완성도 높게 실제로 많은 사람들이 이런 것에 피해를 보고 있는 것이고요. 그다음이 이제 사진입니다. 그리고 이제 영상이죠. 여기까지도 지금 충분히 아주 고도화가 진행되고 있습니다. 이제 그다음 언어로 가고 있죠. 인간의 언어 체계라든지 창작 혹은 통찰력에까지도 인간의 어떤 지능과 인간의 판단을 모방한 영역들이 등장하고 있습니다. 사실 우리가 요즘 챗GPT 흔히들 쓰고 계신데요. 생성형 AI라고 하는 게 인간의 언어 체계를 복사했다라고 보시면 되죠. 그러면 우리가 뭐 책을 한 권 쓴다, 보고서를 쓴다 이런 것들까지 인간의 뇌 속에서 일어나는 판단과 언어적 체계들을 그대로 인공지능이 활용하고 있다 이렇게 볼 수가 있는 것이죠. 그런 관점에서 딥페이크를 방어하는 기술들도 지금 충분히 발전이 필요한 상황이고 실제로 많은 기업들에 의해서 시도는 되고 있습니다. 예를 들면 여러 가지 이제 방법적인 측면들이 있는데 이 딥페이크 사진과 영상 이 파일 자체의 고유성을 탐지하는 기술이 또 하나의 접근법으로 활용이 되고 있습니다.

◇이대호> 파일 자체의 고유성이요?

◆김상윤> 네. 그러니까 이 파일이 오리지널 파일인가, 한 번 가공이 된 파일인가를 체크하는 거죠.

◇이대호> 오염된 건지 아닌지.

◆김상윤> 네. 맞습니다. 마이크로소프트 뭐 다들 아시는 세계에서 정말 이 IT 분야를 이끌고 있는 기업은 이 디지털 콘텐츠의 오리지널리티를 판단하는 뭔가 여기서 가공이 됐고 덧붙여졌고 뭔가 합성이 됐고 하는 것들을 식별해내는 기술을 지금 개발을 하고 있고요. 물론 아직까지 뭐 특정 서비스가 나왔거나 툴이 됐거나 이런 것까지는 아닙니다. 내부적으로 이렇게 기술을 진화시켜 나가고 있고요. 인텔의 경우에는 페이크캐쳐라는 이름의 기술을 개발을 했습니다. 이게 뭐냐 하면 바이오 정보와 딥페이크, 딥러닝을 같이 융합해서 활용하는 건데 우리 인간의 얼굴에 아주 미세하게 현미경으로 관찰하면 혈류의 흐름에 따라서 피부 색깔이 다릅니다. 혈관의 모양이 뭐 나노 단위로 보면 보일 거고요. 아니면 이 피부 색깔도 톤도 혈관이 얼마나 가까이 있느냐, 깊이 있느냐, 혈관의 두께, 이런 것에 따라서 미묘하게 이런 색감들이 달라지죠. 인간의 눈에는 정확하게 인식이 안 될 수 있지만 인공지공 이런 것까지 식별이 가능합니다, 그러다 보니까 영상이나 사진에서 사람 얼굴이 등장했을때 이 얼굴이 실제 이런 혈류 흐름이나 바이오 정보를 담고 있느냐. 이것이 이제 리얼이냐, 페이크냐를 판단할 수 있는 기술들이 지금 생겨나고 있는 것이죠. 인텔의 페이크캐쳐가 바로 그 부분의 서비스고요. 실제로 이제 사람 피부의 혈류와 같은 이런 정보들을 아주 미세한 픽셀 단위의 영상 분석을 통해서 이걸 식별해내고 회사 측의 발표에 따르면 약 96%까지 가짜를 식별해낼 수 있더라라고 완성도를 밝히고 있습니다.

◇이대호> 굉장히 이제 정밀한 기준으로 이제 잡아내는 거네요. 영상의 해상도도 좋아야 될 것 같은데요.

◆김상윤> 그렇죠. 아주 해상도가 높은 곳에만 좀 적용될 수 있을 것 같긴 합니다.

◇이대호> 어떻게 보면 이제 방어 기술이라고 표현해 주셨는데 또 그런 시기 덕분에 글로벌 보안업체들도 탄생이 됐던 것처럼 어떻게 보면 또 산업적인 측면에서 기술도 발전하면서 보안업체들도 또 커갈 수 있는 또 기회가 되기도 하는 거네요. 이게 또 어떻게 보면 이제 딥페이크 기술도 그동안 규제가 없었기 때문에 또 기술이 또 빠르게 발전한 것도 있지 않을까요?

◆김상윤> 네. 그렇죠. 이제 모든 기술은 기존에 없던 새로운 현상들이 많죠. 그러다 보니까 이게 법적 제도적인 혹은 사회 질서적인 부분들이 이 기술의 변화에 대해서 반영하고 있지 못하는 경우들이 많습니다. 그러다 보니 디지털 신종 범죄라고 하는 게 신종이라는 단어가 붙잖아요. 지금까지 우리가 뭐 여러 차례 전화 음성 사기부터 시작해서 요즘은 이제 위조, 변조해서 뭐 이런 것까지 이제 고도화되는 과정들이 결국 법적 제도적 틀을 벗어나는 새로운 형태의 범죄 유형이라는 것이죠. 기술이라는 것이 새로 발전하다 보니까 완전히 전혀 다른 이런 경험들을 만들어주게 되고 결국 법 제도의 규제 이런 틀이 이 기술 변화에 따라서 생겨나는 사회적 부작용들을 커버할 수 있어야 된다. 그런 점에서 우리가 사회적 관심을 가지고 이것이 단순히 기술업계의 노력만이 아니라 우리 모두의 관심과 또 법적 제도적인 영역에 해당되는 분들이 이런 것들을 좀 적극적으로 이것을 받아들이고 고민하는 시기가 왔다라고 봅니다.

◇이대호> 좋은 말씀이십니다. 9*** 쓰시는 분께서 얼마 전에 그 원더랜드 영화에서 죽은 사람을 계속 영상통화로 만나는 게 슬퍼 보였습니다. 아쉽지만 잊혀질 권리를 주는 게 맞는 것 같더라고요, 이렇게 보내주셨고. 그렇죠. 또 이게 사후도 마찬가지고 내 영상이 어딘가에 합성이 돼 있거나 좋지 않은 의도로 쓰였을 때 그거를 또 빠르게 삭제할 수 있는가. 요즘에 뭐 디지털 장의사라는 이렇게 표현도 쓰던데요. 그런 건 어떻게 좀 잘 돼 있습니까? 본인이 요청을 하면 나 지금 피해당했는데 바로 정정이 되거나 삭제가 되거나 이럴 수는 있나요?

◆김상윤> 점점 더 어려워지고 있죠.

◇이대호> 더 어려워져요?

◆김상윤> 네. 그러다 보니까 이제 이런 전문 업체들까지 생겨나고 상당히 고가 비용을 지불해야 됩니다, 제가 알기로는. 결국은 뭐 우리 인류가 계속 물리 세계에서 디지털 세계로 옮겨가고 있잖아요. 뭐 메타버스도 우리가 한 번 이런 또 붐이 있기도 했고. 모든 것이 디지털로 옮겨지는 이 상황에서 우리의 많은 정보들이 디지털에 존재하게 되고 가공되게 되고 이런 여러 가지 또 부작용들이 생기는 거죠. 그래서 이런 잊혀질 권리, 우리 정보 관리나 또 삭제에 대한 어떤 관심들, 요구 사항들이 점점 더 커질 것으로 보입니다.

◇이대호> 곽** 님이 보이스피싱부터 지금은 이제 얼굴을 이용하는 딥페이크까지 뭐든지 의심하고 조심해서 살아가야 하네요. ㅠㅠ 이렇게 보내셨고요. 4*** 님. 앞으로 더 발전하지 않을까요? 또 AI도 이제 기대를 합니다. 또 이렇게 해서 우리가 좀 밝은 면이 더 부각이 될 수 있도록 뭐 제도적으로도 그렇고 일단 당장은 또 당하지 않도록, 피해 입지 않도록 또 조심하고 또 보완해야 될 측면은 또 우리가 계속해서 또 이야기를 내고 이렇게 해야겠네요. 중앙대학교 컴퓨터공학과 김상윤 연구교수에게 많이 배웠습니다. 고맙습니다.

◆김상윤> 네. 감사합니다.

■ 제보하기
▷ 카카오톡 : 'KBS제보' 검색, 채널 추가
▷ 전화 : 02-781-1234, 4444
▷ 이메일 : kbs1234@kbs.co.kr
▷ 유튜브, 네이버, 카카오에서도 KBS뉴스를 구독해주세요!


  • [성공예감] 트럼프도 당한 딥페이크, 의심하고 또 의심하라 – 김상윤 교수 (중앙대 컴퓨터학과)
    • 입력 2024-09-10 15:36:17
    성공예감
=======================================================
인터뷰 자료의 저작권은 KBS라디오에 있습니다.
전문 게재나 인터뷰 인용 보도 시,
아래와 같이 채널명과 정확한 프로그램명을 밝혀주시기를 바랍니다.
=======================================================
- 딥페이크, 美 커뮤니티 레딧에서 처음 등장..영상도 딥러닝
- 美 시큐리티히어로 "세계 딥페이크 주인공 절반이 한국"
- 해외도 딥페이크 처벌 초읽기..영국은 '온라인 안전법' 발표
- 워터마킹·태깅 정보로 방어 가능하지만..의무화 필요성도
- 트럼프-엡스타인 사진도 딥페이크, 빠르게 유포돼 피해 커져
- 입모양 맞춰 더빙, 의료적 활용 등 딥페이크 기술 순기능도
- AI 부작용, AI로 막는다..인텔, 가짜 영상 잡는 '페이크캐처' 개발

■ 프로그램명 : 성공예감 이대호입니다
■ 방송시간 : 9월 10일(화) 09:05-10:53 KBS1R FM 97.3MHz
■ 진행 : 이대호
■ 출연 : 김상윤 연구교수 (중앙대 컴퓨터학과)



◇이대호> 성공예감 이대호입니다. 2부의 문을 열겠습니다. 여러분 요즘 걱정되는 뉴스 많이 들어보셨을 겁니다. 딥페이크, 딥페이크라고 하는데. 이게 그냥 과학기술인 줄 알았는데 우리 일상 속으로 깊숙이 들어와서 곳곳에서 또 나쁜 짓 하는 사람들도 많이 있습니다. 같이 한번 배워보시죠. 중앙대학교 컴퓨터 공학과 김상윤 연구교수와 함께합니다. 안녕하세요. 교수님.

◆김상윤> 네, 안녕하세요.

◇이대호> 우선은 저희가 노래 한 곡 잠깐 듣고 이야기를 이어가 볼게요. 이게 원래 비비 씨의 밤양갱이라는 노래. 가수 장기하, 양희은, 아이유 또 코미디언 박명수 씨까지 메들리로 불러주신 건 아니고 이게 가짜 목소리라는 거죠.

◆김상윤> 직접 부른 게 아니죠.

◇이대호> 아니죠. 합성한 거죠. 너무 똑같은데요?

◆김상윤> 합성은 원래 오리지널 음에다가 이렇게 다른 분들의 목소리를 변조한 거죠.

◇이대호> 그런데 이게 그 사람의 음정, 높낮이, 음색, 목소리의 떨림까지도 다 학습을 해서 이렇게 된 거예요?

◆김상윤> 기존에 음성 합성 기술이 워낙 발전하다 보니까 그것을 학습했다라고 말할 정도까지 안 가더라도 지금 이 변조는 아주 쉽게 진행이 될 수 있습니다.

◇이대호> 아주 쉽게요. 이런 거는 누워서 떡 먹기입니까?

◆김상윤> 네. 음성 인식이나 합성 기술은 상당히 진척되어 있죠.

◇이대호> 아니, 그러면 우리 중앙대학교 김상윤 연구교수와 이야기를 계속 나눠보고 있는데요. 그럼 방금 우리가 들었던 그 합성된 음악은 이건 딥페이크입니까? 정의를 내리자면.

◆김상윤> 네, 딥페이크는 사실 영상과 사진 합성 기술에서 용어가 나온 것이고요. 이것은 그냥 음성 합성 기술, 음성 변조 기술 정도로 얘기를 할 수 있겠죠.

◇이대호> 그러면 그 정의 범위를 어디까지 봐야 하나요? 딥페이크, 뭔가 페이크는 속인다는 뜻이잖아요. 어떤 안 좋은 의도를 갖고 있으면 다 딥페이크라고 볼 수 있을까요?

◆김상윤> 기술적으로는 사실 이게 안 좋다, 좋다라고 말하기가 그렇죠. 왜냐하면 기술 용어는 우리가 이 기술 자체를 우리가 부정적으로 볼 수는 없기 때문이죠. 그런데 딥페이크라는 용어 자체가 실제로 한 아이디에서 출발했습니다.

◇이대호> 아이디요?

◆김상윤> 네, 영상 합성 프로그램을 레딧이라는 공유 플랫폼에 올린 이 사람의 아이디가 딥페이크였고요. 그러다 보니까 그 프로그램이 너무 훌륭한 거예요. 그래서 많은 사람들이 그 프로그램을 이용해서 유명인을 합성한다든지 본인 사진을 합성한다든지 이렇게 활용하다 보니까 댓글에 너무 훌륭하다라는 극찬이 달리다 보니 이 사람의 프로그램을 만든 아이디가 그 기술을 칭하는 용어가 돼버렸죠. 그런데 딥페이크라는 것은 이 용어, 아이디를 만든 사람은 다른 의도가 있을지도 모르겠지만 우리가 해석하기로는 딥러닝의 딥과 페이크 가짜를 말하는 단어 두 단어의 합성어입니다. 그리고 딥러닝이라고 함은 인공지능 분야의 데이터를 학습하는 방법이거든요. 인공지능이 인간이 부여한 여러 데이터를 인공신경망이라고 하는 아주 구조화된 복잡한 단계를 통해서 학습합니다. 그런데 그 학습 과정에서 영상과 사진도 그 학습 대상이 된 거죠. 그러다 보니까 진짜를 가짜처럼 만드는 것까지 이른 것이고 우리가 이것을 딥페이크라고 부르게 된 것이죠.

◇이대호> 7*** 님이 목소리 AI로 라디오 방송 진행도 대본만 써놓고 AI가 진행하는 시대도 오겠네요, 이렇게 보내주셨는데. 가능하겠죠?

◆김상윤> 이미 유튜브 많은 채널들이 본인의 목소리를 드러내고 싶지 않은 분들이 실제 AI 목소리에 입혀서 자신의 원고만 쓰고 그 원고조차도 요즘 생성형이, 챗GPT가 써주기도 하죠. 그러다 보면은 실제 인간의 작업은 없어지는 상황들. 많은 채널에서 우리가 확인할 수 있죠.

◇이대호> 원고까지도 인공지능으로 생성을 해서 목소리도 입히고 이게 점점 더 정교해지고 또 중요한 거는 이게 누구나 쉽게 접근해서 실제로 만들 수 있다는 거잖아요. 돈만 내면.

◆김상윤> 요즘 오픈 소스가 유행하고 있죠. 본인이 만든 프로그램이나 소스 코드를 공유 게시판에 공개합니다. 그 말은 이것을 가져다가 쓰기가 너무 쉬워졌다라는 거죠. 사용자 입장에서도 완성된 프로그램을 다운받아서 그것을 방법에 맞게 활용만 하면 내가 딥페이크 영상과 사진을 만들 수 있다라는 거예요. 제가 실제로 저희 학교 연구원들과 함께 스왑페이스라는 프로그램, 하나의 딥페이크 프로그램을 한번 실행을 해봤는데. 실제로 제 사진을 올려서 목적하는 합성하고자 하는 영상에 붙여서 만드는 데 1분도 채 걸리지 않았습니다. 우리가 기술적으로 소스(Source)와 타깃(Target) 그리고 결과(Result), 이렇게 얘기를 하는데요. 소스는 뭐냐 하면은 내가 입히고 싶은 그 대상 영상입니다. 타깃은 저의 영상이에요. 제 사진. 그래서 소스와 타깃을 지정하면 예를 들어 제가 탐 크루즈 모습에 제 얼굴을 입히고 싶다, 그러면 탐 크루즈 사진이나 영상이 소스가 되는 거고요. 제 사진이나 영상이 타깃이 되는 겁니다. 그것을 합성해서 실행을 누르면 결과가 합성된 형태로 나오는 것이죠. 대부분이 이 딥페이크 프로그램들이 이런 방식으로 기능이 구현되다 보니까 너무나 쉽게 일반인들도 활용할 수가 있는 것이죠.

◇이대호> 이게 그런데 누구나 일반인들도. 그런데 교수님께서 활용하신 프로그램은 공개된 프로그램인 거고요. 누구든지 내려받기 해서 쓸 수 있는.

◆김상윤> 네, 공개된 프로그램입니다.

◇이대호> 그런데 이게 참 기술이라면 발전하는 게 좋기는 한데 안 좋은 곳에 쓰이니까 문제 아닙니까? 범죄로 지금 많이 악용되고 있잖아요. 특히 최근에 또 사회적으로 음란물 이것도 많이 문제가 되고 있고.

◆김상윤> 딥페이크라고 하는 것이 일단 용어 자체가 부정적이다 보니까 범죄에 활용될 가능성이 더 크다. 그리고 이것을 부정적으로 더 인식하는 경향이 크죠. 실제로 최근 국내에서 심각한 사회 문제가 되고 있는 것이 여중, 여고생들이 피해를 입었어요. 그러니까 학교 홈페이지에 학생들의 사진이 공개되어 있잖아요. 그거를 다운받아다가.

◇이대호> 졸업 사진일 수도 있고.

◆김상윤> 그렇죠. 아니면 거기 링크에 들어가서 각 학생들의 SNS에 들어가서 그 사진이나 영상들을 가지고 이 딥페이크 프로그램을 실행을 해서 여중, 여고생들의 미성년자의 사진과 영상을 딥페이크로 제작한 그런 사례들이 지금 사회에 심각한 문제가 되고 있죠.

◇이대호> 아니, 얼마 전에 미국의 사이버 보안업체 시큐리티 히어로라고 하는데 여기에서 내놓은 자료를 보니까 대한민국의 딥페이크 성착취물이 문제고 취약국가 1위다, 이런 평가가 나왔습니다. 이거는 어떤 배경에서 그런 거예요?

◆김상윤> 저도 이 뉴스를 듣고 좀 되게 심각하구나. 그래서 저도 이 보고서를 좀 읽어봤는데요. 지난 7~8월 딥페이크 관련 사이트들이 있어요. 유명 사이트들이. 물론 좋지 않은 사이트들이죠.

◇이대호> 커뮤니티, 막 자기가 만든 거 자랑하고 막 이런.

◆김상윤> 그렇죠. 자랑하거나 아니면 성인 동영상이 올라오는 사이트라든지. 그곳에 10곳을 대상으로 시큐리티 히어로라는 업체가 조사를 했는데요. 실제로 약 10만 건의 올라온 영상이나 사진을 분석한 결과 그중에 등장하는 인물의 원 소스가 한국인이다라고 유추되는 것이 53%인 거예요.

◇이대호> 거의 절반이요?

◆김상윤> 네, 전 세계 사이트를 대상으로 했는데요.

◇이대호> 아니, 그거는 그러면 한국인이 한국인을 타깃해서 그렇게 합성한 걸까요? 아니면 외국인이 외국에서 그렇게 합성을 한 걸까요. 그건 알 수가 없나요?

◆김상윤> 네, 그런데 주로 뒤에 내용들을 읽어봤더니 주로 K-팝 스타가 많아요. 최근 K-팝이 전 세계적으로 유행을 하다 보니까 K-팝 스타, 딥페이크가 실제로 뒤에 다른 조사도 있는데 10대들의 활용도가 상당히 큽니다. 이게 더 심각한 사회문제예요.

◇이대호> 10대들의 활용도라고 하면 10대들이 이걸 만들어본다는 거예요?

◆김상윤> 딥페이크를 직접 프로그램을 써서 자기가 만들어본다라는 거죠.

◇이대호> 우리나라 아이들 똑똑한 건 알겠는데, 그런 식으로 그런데.

◆김상윤> 이거를 분명히 하셔야 될 게 딥페이크 자체는 용어 자체가 너무 부정적으로 이름이 지어졌는데 이 자체는 나쁜 것은 아니에요.

◇이대호> 그렇죠. 기술이니까.

◆김상윤> 그렇죠. 기술이고 내가 내 사진을 뭔가 재미로라도 다른 사진에 연예인 얼굴에 합성해 본다. 연예인 몸에 합성해 본다. 이런 것들 자체가 나쁜 건 아니잖아요. 그런데 이것을 활용할 때 성착취물. 그러니까 이게 성적인 어떤 본인에게 피해를 줄 수 있는 혹은 사회적으로 부정적인 활용도가 있다라는 것이 문제인 거죠. 그래서 결국 이 10대들이 호기심을 가지고 디지털에 익숙한 세대다 보니까 이 딥페이크 프로그램을 가장 많이 쓰고 있는 것으로 나타났고 그러다보니까 앞서 말씀드린 시큐리티 히어로 조사에도 이 K-팝 연예인들을 대상으로 10대들이 이것을 올렸을 가능성이 크다, 이렇게 분석이 되고 있죠.

◇이대호> 곽** 님이 온라인 상에 내 정보가 떠돌아 다닐까 무서워서 더더욱 안 해야지라는 생각이 드네요라고 이제 SNS 쓰는 것도 무섭다. SNS에 가족들 사진 함부로 올리면 안 될 것 같다라고 보내주셨는데. 참 그것도 중요하죠. 어디서든, 누군가든 카톡이 됐든 SNS의 사진을 다 퍼가서 그냥 붙이기만 하면 되니까. 혹시나 이게 처벌 수위나 아니면 이런 거 하면 큰일난다라는 법 제도는 좀 제대로 갖추어져 있나요?

◆김상윤> 직접적인 딥페이크 관련된 법안은 아직 미미한 편이고요. 대체적으로 우회적인 방법으로 법적 처벌을 하고 있습니다. 무슨 말이냐면 예를 들면 성폭력 범죄, 공연음란죄, 초상권 침해죄 이런 것으로 이것에 피해를 받은 사람이 신고를 해야 돼요. 그러면 여기에 대해서 조사를 해서 법적인 어떤 제재를 가할 수 있습니다. 그런데 명확하게 이것이 딥페이크의 어떤 배포자나 생산자나 유포자에 대한 처벌에 관해서는 아직까지 법적 제도적 정비가 필요한 영역입니다.

◇이대호> 다른 법을 우회해서 다른 법으로 처벌을 받지 딥페이크 자체로는 아직까지는 그런 법적 처벌 근거는 없고. 다른 나라는 어떻습니까? 다른 나라들은 이 딥페이크를 좀 규제하려는 움직임이 좀 있나요?

◆김상윤> 다른 나라도 이게 이슈가 워낙 심각한 사회 문제를 만들다 보니까 여기에 대해서 관심이나 여러 가지 사회적인 컨센서스는 만들어지고 있는데요. 미국 같은 경우에도 우리나라와 마찬가지로 아직까지 법적인 제도적인 정비는 초읽기 단계입니다. 주 정부 차원에서는 딥페이크를 범죄로 보고 규정한 곳이 일부 있지만 아직 연방법에서는 딥페이크 성착취물을 명시한 법적 조항이 없습니다. 그러나 유럽은 조금 앞서 있죠. 유럽의 경우에는 유럽 연합 자체의 디지털 서비스법이라고 해서 온라인 플랫폼에 유해 콘텐츠를 올렸을 경우에 어떤 법적 제재를 가할 수 있는지가 명시되어 있기도 하고요. 또는 프랑스 같은 경우에는 플랫폼에 대해서 상당한 책임을 부과하고 있습니다. 이런 성착취물이나 부정적인 딥페이크 영상들이 올라온 그 플랫폼에 대해서 상당히 제재를 가하고 벌금을 주고 혹은 책임자를 처벌하는 조항들이 강력하게 지금 정해져 있고요. 영국 같은 경우에는 지난 4월이죠. 온라인 안전법이라는 것을 개정해서 당사자가 동의 없이 악의적으로 딥페이크 성착취물 같은 이런 영상들을 올렸을 경우에 이 제작자에 대해서 형사 입건한다, 이런 것들이 발표되기도 했습니다.

◇이대호> 김** 님 딥페이크 정말 문제군요. 범죄자들에게는 엄한 처벌이 필요합니다. 이렇게 또 지적하시는 목소리들도 계속 올라오고 있습니다. 인터넷 댓글 같은 경우에도 물론 이걸 실명제로 해야 한다 논쟁은 좀 있습니다만 추적을 하다 보면 누가 썼는지 또 알 수 있는 방법이 있지 않습니까? 특히 국내 포털 같은 경우에는 딥페이크 같은 경우에는 영상물을 누가 만들었다 누가 유포했다라고는 알아낼 수 있을까요?

◆김상윤> 일단 아이디 추적한다는 것은 모든 콘텐츠에 공통적으로 해당되기 때문에 그런 방법은 사용할 수가 있죠. 다만 문제는 우리가 익명 게시판 같은 아이디나 이런 나의 개인정보가 연결되지 않은 게시판들이 생각보다 많다라는 거예요. 그러면 이것을 추적할 수 있는 방법은 유일하게 IP 추적이라든지 혹은 여러 다른 방법들을 쓸 수밖에 없거든요. 그런 측면에서 실제로 이 성착취 영상이 여기저기 퍼지는 것은 우리가 텔레그램과 같은 개인 추적이 불가능한 플랫폼들에서 아주 일상화가 되어 있습니다. 그러다 보니까 추적이 불가능한 측면이 있고요. 다만 최근에 이것을 추적 가능하게 한 다른 방법의 기술들이 개발이 되고 있긴 합니다. 예를 들면 워터마킹 기술이 있어요. 딥페이크 프로그램을 썼을 때 최종적인 결과물에 대해서 워터마크를 찍어주는 거예요. 어떤 건지 아시죠.

◇이대호> 화면상에 약간 반투명한 글자가 나오는.

◆김상윤> 그렇죠. 이게 어느 프로그램에서 제작되었다라는 것을 낙인을 찍어주는 거죠. 그러면 그 어떤 사람이 보더라도 그 영상과 사진에 대해서 어느 프로그램으로 제작되었다. 즉, 딥페이크 영상이다 아니다를 확인할 수 있게 하는 거죠.

◇이대호> 그런데 그게 또 왜 워터마크를 지우는 기술도 있지 않습니까? 이 워터마크를 영상 앞에 띄워놓는다고 해서 이게 실효성이 있을까요?

◆김상윤> 사실 참 이 기술이라는 게 재미있는 게 공격하는 기술이 발전하면 또 방어하는 기술이 발전하죠. 똑같은 상황이 예전 우리 인터넷 초기에도 벌어졌었는데요. 인터넷이 90년대에 막 보급되면서 개인들이 여기에 정보를 어디까지 올려야 되나, 그러면서 해킹을 당하거나 혹은 내 정보가 또 일부 다른 사람들에게 도용당하거나 이런 경우들이 생기다 보니까 백신 산업이 발달했습니다. 그래서 이 프로그램을 쓸 때 내가 인터넷 사이트를 쓸 때 이 백신을 깔아서 이런 여러 가지 침입으로부터 방지하는 기술들이, 방어 기술이 발전을 했죠. 그런데 문제는 순서가 공격 먼저라는 거예요. 공격이 들어와야 방어를 하니까.

◇이대호> 공격이 있어야 방어하니까.

◆김상윤> 네, 그래서 방금 말씀드린 것처럼 워터마킹 기술도 역시나 이것을 또 없애는 AI 프로그램도 지금 올라와 있습니다. 이게 결국 계속 공격하는 기술이 더 빠르다라는 거예요. 그래서 이런 부분도 역시나 아직 완벽히 안전한 어떤 기술 보호 형태는 아니다라는 건데 또 한 가지 방법으로는 지금 많은 기업들이 시도하고 있는 게 태깅 정보들을 다는 겁니다. 우리 태그라고 해서 우리 SNS 쓰시는 분들 태그를 단다 하잖아요.

◇이대호> 옷에 달려 있는 택처럼.

◆김상윤> 네, 맞습니다. 그래서 이 사진이나 영상을 설명하는 글이죠. 보조적인 글들. 예를 들어 이 영상은 무슨 뭐에 관한 영상이고, 언제 만들었고, 누가 만들었고, 어떤 프로그램에 의해서 가공됐고, 이런 설명하는 내용들을 이 영상이나 사진에다가 보이지 않는 태그를 달아주는 겁니다.

◇이대호> 만든 사람이?

◆김상윤> 아뇨, 프로그램 자체가.

◇이대호> 아, 프로그램 자체적으로 보이지 않게.

◆김상윤> 네, 그래서 이것이 유포됐을 경우에 이것을 태그 정보를 확인하는 절차를 통해서 이 사진이나 영상이 딥페이크인지, 유포자는 누구인지, 제작자는 누구인지, 어떤 프로그램을 만들었는지를 확인할 수 있는 것이죠.

◇이대호> 그 프로그램을 쓰는 사람이 나 모르겠지라고 막 이것저것 만들었지만. 그 만들어지는 과정 속에 어디에서 무엇에 대해서 어떻게 만든 거다라는 정보를 담고 있게끔. 그래서 나중에 그걸 열어서 보면은 누가 어떻게 만들었구나를 알 수 있게끔. 그러니까 영상 겉으로는 표는 안 나지만.

◆김상윤> 그런데 이것도 이제 공격이 가능한 게 태그 정보를 달아주는 하나의 기능을, 딥페이크 프로그램을 만드는 이런 아주 활발한 개발자들이 굳이 꼭 내 프로그램에 이걸 담을 필요가 없죠.

◇이대호> 그렇죠. 그러면 이제 사람들이 자기 프로그램 많이 안 사서 쓸 것 같으니까요.

◆김상윤> 그럴 수 있죠. 그렇기 때문에 이게 법 제도적으로 정비가 되지 않는 한 이게 기술 분야에서 자정적인 형태로 이런 태그 기술이나 워터마킹 기술을 활용하라라고 하는 것에는 한계가 있다 이렇게 볼 수가 있는 것이죠.

◇이대호> 그래서 이걸 완전히 의무화해버리자 이런 목소리도 그래서 나올 수밖에 없는 건데요. 자율에 맡겨버리면 뭐 일단은 내 프로그램 많이 팔아야 되는데 괜히 불편한 이런 거 담아서 뭐 하겠어 또 이럴 수도 있잖아요. 선량한 의도에만 기댈 수는 없는 거고요. 이 기술은 완전 초반이네요.

◆김상윤> 네. 아주 초반이고 실제로 아까 딥페이크의, 그 레딧이라는 게시판에 이 아이디로 이 프로그램 올린 사람에서 이름이 비롯됐다고 말씀드렸잖아요. 그게 2018년 정도였습니다. 딥페이크가 본격적으로 세상에 알려진 게 2018년부터라고 치면 그 이후 기술 발전이 더 고도화되어 왔고 최근 몇 년 사이에 벌어지고 있는 기술로 인한 세상의 변화다라고 볼 수 있겠죠.

◇이대호> 근데 이게 점점 더 정교해지다 보니까 더 혼란스러운 것 같습니다. 얼마 전에 이제 미국의 대통령 후보들까지도 합성된 영상, 이게 사진이 아니라. 한 반년 전쯤인가요, 작년인가요? 트럼프 전 대통령이 막 체포당하는 영상이 사진으로 합성된 것 때문에 실제로 그게 진짜인 줄 알고 막 보도를 냈던 해외 언론사도 있었고. 근데 이제는 아예 뭐 춤추는 모습, 서로가 부둥켜안는 모습 뭐 이런 것도 이제 영상으로 합성돼서 돌아다니고 있는데. 이게 참 어렵습니다. 헷갈립니다. 아까 텔레그램 잠깐 이야기를 해 주셨는데 해외 SNS 같은 경우에는 특히 뭐 검찰이나 경찰의 수사가 시작되더라도 협조를 그냥 안 해버리는 경우 있잖아요. 강제성도 없고. 그러면 현실적으로 이거를 악용한 사람을 잡아내는 데도 현실적으로는 좀 한계가 있을 수밖에 없는 거죠, 이거는?

◆김상윤> 그렇죠. 지금 이 텔레그램이 사실 전 세계적으로 이런 마켓셰어를 갖게 된 데는 그런 개인정보에 대한 상당히 프라이버시를 존중하는 그들 입장에서는 이렇게 주장을 하죠.

◇이대호> 익명성이 중요하다, 표현의 자유 중요하다 뭐 이런 거죠.

◆김상윤> 그렇죠. 그러다 보니까 텔레그램이 전 세계에 아주 큰 지금 마켓셰어를 갖게 됐는데 그 반면에 이 범죄에 악용되는 경우들이 너무나 많습니다. 범죄의 온상이 되기도 하죠. 그러다 보니 나쁜 소스 코드나 나쁜 콘텐츠들은 대부분 텔레그램을 통해서 전 세계에 퍼집니다. 이것이 이제 뭐 어떻게 보면 하나의 딜레마죠. 이게 표현의 자유나 혹은 개인정보 침해에 대해서 좀 자유도를 더 강화할 것이냐. 아니면 이것에 대해 피해를 보는 사회적 부작용에 대해서 또 강조해서 법적 제도적 장치를 만들 것이냐, 규제를 만들 것이냐. 이런 것에 대한 지금 여러 가지 혼란이 있는 것이죠.

◇이대호> 그 내용도 좀 포함이 된 걸로 알고 있는데. 그 텔레그램을 창업한 파벨 두로프가 얼마 전에 프랑스에서 체포됐지 않습니까? 체포될 당시만 해도 이제 극렬하게 막 반발을 하다가 요즘은 좀 이 사람 말이 달라졌더라고요. 범죄에 악용되는 기능을 삭제하겠다. 이거는 좀 어떻게 평가하십니까?

◆김상윤> 그게 이제 약간의 임시방편일 수도 있죠. 워낙 사회적 이슈들이 딥페이크뿐만이 아니라 텔레그램을 이용한 범죄라든지 마피아도 텔레그램을 이용해서 소통한다 이런 것도 알려져 있고. 또 개별 국가의 이런 보안이라든지 이런 것들을 또 허무는 사례들도 생겨나고 있고. 그러다 보니 국가들이 텔레그램을 상당히 경계하고 있습니다. 이렇게 찍어서 얘네들을 좀 이렇게 좀 다스려야겠다 이런 국가들이 생겨나고 있죠. 프랑스도 마찬가지 사례고요. 그러다 보니 이제 텔레그램도 어떤 액션이 필요합니다. 그들이 이제 사실 실제로 이 마켓셰어가 이렇게 성장한 것은, 매출이 이렇게 커진 것은 반대 급부의 어떤 제공을 했기 때문이죠. 그런 점에서 그들 입장에서도 상당한 고민 끝에 그래도 최소한의 액션은 취해야겠다라는 것에서 등장한 것이 이제 텔레그램에 악성 코드나 악성 콘텐츠, 사회적 부작용을 만드는 이런 성착취물 같은 콘텐츠를 올렸을 때는 제재하는 이런 제도들을 만들겠다라고 다소 유화적인 제스처를 취하는 것이죠.

◇이대호> 일단은 당장 잡혔고 엄청난 처벌을 받을 것 같으니까 어쩔 수 없는 또 그 선택일 수 있을 텐데. 그래서 이제 텔레그램이 굉장히 중요한 선례가 될 수도 있을 것 같습니다. 이게 국가적인 비용도 만만치 않을 것 같습니다. 기업도 마찬가지고 이 개개인의 고통은 이루 말할 수도 없을 테고. 국가적으로도 이런 딥페이크에 대처하는 또 그로 인한 사회적인 혼란에 따르는 비용은 우리가 이거 뭐 이제 산정해 낼 수도 없을 정도 아닐까요?

◆김상윤> 지금 우리나라의 경우에는 여중, 여고생들의 미성년자 피해도 있고요. 케이팝 스타 피해 말씀드렸습니다. 거기다가 전 세계적으로는 딥페이크가 상당히 유명해진 게 정치인들의 딥페이크 영상 사진이 앞서 말씀드린 트럼프와 같은 이런 사진들이 이제 확대되면서죠. 실제로 이게 이제 뭐 그냥 재미 정도로 치부될 만한 콘텐츠면 큰 문제가 없는데 이게 심각한 내용들이 담긴 경우들도 있습니다. 뭐 트럼프 같은 경우에 사실 아주 이슈가 됐던 적이 있는데요. 지난 대선 시점이었을 겁니다. 트럼프가 10대 소녀들과 어떤 엡스타인이라고 하는 정말 거대 부호의 개인 섬으로 이제 그 비행기를 타고 가는 사진이 언론에 공개가 됐어요. 엡스타인이라는 사람은 미성년자 성착취범으로 여러 번 이제 기소를 당하고 했었던, 부정적인 그런 인물이거든요. 그런데 이 트럼프도 거기 그 행사에 참여하는 거 아니냐. 미성년자 성착취에 가담하는 거 아니냐. 이렇게 알려졌는데 그게 결국 딥페이크 사진으로 알려졌죠. 근데 이게 문제는 이런 뭐 정치인이든 연예인이든 이런 딥페이크의 사진과 영상이 최초에 유포될 때는 상당히 빠른 속도로 확장이 됩니다.

◇이대호> 그렇죠. 다 사실인 줄 알고, 그냥.

◆김상윤> 그렇죠. 사람들은 가십을 좋아하잖아요. 그러니까 이런 일이 있더라. 퍼다 나르고 퍼다 나르고 하면서 순식간에 몇 백만 조회수를 찍어버려요. 근데 트럼프의 경우에도 며칠 후에 이것이 가짜임이 밝혀졌음에도 그 가짜라는 것을 설명한 그 콘텐츠의 조회수는 몇 십만이 채 나오지 않습니다. 그럼 이미지만 타격을 입고 그 이미지뿐만 아니라 정말 우리가 성착취물이라는 것은 개인의 명예나 어떻게 보면 정말 앞으로의 삶의 어떤 이런 것들, 관점들이 완전히 바뀔 수 있는 상당한 큰 피해인데도 불구하고 이것을 다시 돌이킬 수 없다라는 것이죠. 이게 더 심각한 문제라고 할 수 있겠죠.

◇이대호> 또 탄환이론이라는 게 있지 않습니까? 총알 한 번 쏴버리면 그냥 빠른 속도로 이미 날아가 버리고 어딘가에 이제 박혀버리듯이 그걸 되돌릴 수도 없는 거고 그렇게 빠르게 또 영향을 미치게 되는 건데 이게 딥페이크가 딱 그런 것 같습니다. 그래서 이걸 아무리 해명을 해도 특히 이제 뭐 유명한 사람들이야 자기 채널을 통해서 해명을 할 수도 있을 텐데 그게 아닌 사람들 같은 경우에는 이미 세상이 이제 나를 낙인찍어버린 거잖아요.

◆김상윤> 그렇죠. 해명의 기회도 없는 거죠.

◇이대호> 어렵습니다. 박** 님이 얼마 전에 그 안중근 의사나 유관순 열사가 환하게 웃고 있는 모습을 딥페이크로 만든 거 그 영상을 보셨다고. 뭉클했다. 권** 님도 독립운동가님들이 이제 사진으로 대한독립만세 움직이는 화면 만든 것도 보셨다고 했는데. 이런 건 좀 뭉클하긴 합니다. 우리가 유관순 누나나 또 이제 안중근 의사 이런 분들의 웃는 모습을 본 적이 없었는데 그분들이 우리나라의 독립을 보고 환하게 웃으시는 모습 보면 되게 좀 뭉클하긴 합니다. 근데 또 엄연히 따지면 또 가짜이기도 하고.

◆김상윤> 근데 이제 딥페이크 기술이 발전하다 보면 긍정적으로 활용할 수 있는 부분들이 바로 그런 부분들이죠. 역사의 고증이라든지 교육 자료로 이제 아주 생동감 넘치는 그 당시 인물의 표정이나 또 동작을 구현할 수 있다라든지 그거는 이제 실제로 과거로 돌아가서 사진과 영상을 찍어올 수 없지 않습니까? 그거는 이제 결국은 가공으로 만들어야 되는데 딥페이크라는 매우 정교한 기술이 고도화됨에 따라서 이것이 정말 효과적인 콘텐츠들로 만들어지는 것은 저는 긍정적인 부분이다 이렇게 말씀을 드립니다.

◇이대호> 뭐 대표적으로 흑백 사진을 컬러로 만든다거나. 그렇죠? 사진을 어떤 동적인 영상으로 만든다거나. 또 이것도 이제 논쟁이 있는데 돌아가신 분의 영상이나 음성을 또 복원한 것 가지고도 좀 논쟁이 있더라고요.

◆김상윤> 물론 이제 그것에 거부감이 있는 분들이 있죠. 왜냐하면 망자에 대한 예의를 갖춰야 된다. 뭐 이런 주장이 있을 수는 있지만 그것은 이제 결국은 활용하는 분들이 어떤 의미를 둘 것인가, 어떻게 가치를 만들어 갈 것인가의 차원이지 그것은 이제 긍정적인 활용이 될 수 있는 여지들이 있다라는 것이고 실제로 이 딥페이크가 세상에 긍정적인 영향을 끼치는 영역들도 많이 지금 발전하고 있습니다. 예를 들면 전 세계의 언어나 문화가 상당히 상이하잖아요, 각 국가별로. 여기에 대한 격차를 해소하는 데 딥페이크가 쓰이기도 합니다. 예를 들면 영화 좋아하세요?

◇이대호> 네.

◆김상윤> 그럼 이제 영화 자막으로 보는 걸 좋아하세요, 아니면 더빙으로 보는 걸 좋아하세요?

◇이대호> 자막으로 보는 게 익숙하기는 한데 좀 쉽지는 않죠, 사실은.

◆김상윤> 그렇죠. 국내 영화팬들은 대부분 자막에 익숙합니다. 우리나라는 자막이 어떻게 보면 하나의 표준으로 자리잡았기 때문이죠. 근데 우리나라를 제외한 다른 국가들, 특히 서방 국가들은 대부분 더빙을 봅니다. 그 말은 입 모양과 실제 언어가 완전히 달라진다라는 것이죠. 그럼 연기 자체에 뭔가 몰입을 좀 막는 부분이 되겠죠. 근데 이것을 딥페이크로 해소하고 있습니다. 이스라엘의 한 스타트업 딥덥이라는 업체는 우리 영화 뭐 예를 들면 넷플릭스의 아주 유명한 아주 인기를 끄는 프로그램이 있다. 그거를 자국의 언어에 맞게 딥페이크로 음성을 덮어버리는 거죠. 그렇게 되면 입 모양을 같게 만들 수 있습니다.

◇이대호> 그러니까 그냥 더빙만 자동으로 하는 게 아니라 입 모양까지 바꿔주는 거예요?

◆김상윤> 그렇죠. 딥페이크가 영상과 사진을 가공하는 기술이기 때문에 이것을 매우 실제와 유사하게 거의 똑같이 만들어준 게 딥페이크잖아요. 그러다 보니까 음성만 입히는 것이 아니라 그 음성에 맞게. 연기자 입 모양까지 바꿔주는 거죠. 이것은 어떻게 보면 뭐 문화 산업이나 언어적 격차를 해소하는 데 매우 효과적이다라고 말씀드릴 수가 있고요. 또 하나는 의료업계 의학 분야에서도 딥페이크가 활용되고 있습니다. 독일 뤼벡대가 이제 의료정보학 연구소를 통해서 상당히 깊이 있게 연구를 진행하고 있는데요. 예를 들면 우리가 암 진단을 할 때 CT나 MRI나 혹은 또 엑스선이나 여러 가지 이런 촬영 기법을 통해서 우리가 이제 이 암의 어떤 초기 단계를 진단하잖아요. 근데 이것이 이제 부정확할 가능성이 높죠. 근데 이거를 이제 실제 암이 발병했던 사람들의 사진이나 영상에 대해서 지금 이 사람의 체형이나 여러 가지 몸의 형태에 비춰봤을 때 이런 형태로 암이 발전할 것이다라는 걸 딥페이크로 만드는 거죠.

◇이대호> 예측을 해서 미리 예상도를 그려보는 거예요.

◆김상윤> 그렇죠. 그렇게 되면 중요한 것은 이 사람에게만 나타날 수 있는 암의 전이 속도라든지 모양이라든지 이런 것들을 미리 거의 실제와 가깝게 예측 정확도를 가지고 페이크를 만들어주니까 훨씬 더 진단하기가 쉬운 거예요. 왜냐하면 의학 정보, 의학 영역에서 디지털이 접목되기 가장 어려운 점이 지금까지의 환자 데이터들의 확보거든요. 그 암을 진단했을 때 암 환자의 사례를 가지고 이것을 분석해야 되는데 실제로 이제 암이 계속 줄어들고 있지 않습니까? 그럼 데이터 확보는 계속 어려워진단 말이죠. 근데 이거를 딥페이크 인공지능 기술을 이용해서 아주 정교한 이 전이 상태들을 사진이나 영상으로 제작할 수 있다라는 것은 의학 분야의 아주 획기적인 또 발전을 만들어 주겠죠.

◇이대호> 이렇게 긍정적으로 쓸 수도 있는데 이게 또 참 나쁜 사람들은 또 악용을 하고 있고. 그래서 기술 자체가 나쁜 게 아니라 이 기술을 어떻게 이용하느냐, 악용하느냐 그 차이일 수도 있을 테고요. 그 할리우드 영화 같은 경우에도 몇 년 전에 그랬었죠. 분노의 질주 촬영을 하다가 주연 배우가 안타깝게 이제 사망하는 일이 있었는데. 그 동생을 데려다가 연기를 시키고 얼굴을 좀 이렇게 변형을 해서 영화를 이제 완성을 했던, 그런 것도 어떻게 보면 이제 물론 이제. 물론 이제 그건 유가족이 동의를 한 거니까. 긍정적인 케이스라고 볼 수도 있을 테고요. 근데 그만큼 자연스럽다는 건 또 그만큼 분간해내기 어렵다라는 뜻이 될 테고요. 그게 어떤 영화 산업이나 엔터 예술의 영역을 넘어서 우리에게까지 또 가까이 올 수 있으니까. 이게 왜냐면 저도 방송을 통해서 여러 번 이야기를 했습니다만. 저희 부모님도 이제 보이스피싱에 당하셨었는데 제 목소리를 카피한 그거였던 것 같아요. 이제 보이스피싱을 넘어서 페이스피싱이 될 수도 있잖아요. 어느 날 갑자기 우리 가족에게 영상통화가 오는데 그 얼굴로 엄마, 아빠 하면서 돈 보내달라고 하면 거의 다 믿지 않겠습니까?

◆김상윤> 그렇죠. 심각한 문제죠. 스미싱이 요즘은 뭐 일반인들이 최소 한 달에 한두 번은 겪어보는 그런 상황인 것 같아요. 이제 이런 스팸 문자는 뭐 사실 아무것도 아닌 정도가 됐고. 이게 이제 음성을 위조하고 그리고 사진, 영상까지도 완벽히 위조가 가능한 시대가 되다 보니까 정말 이런 방어하는 기술들에 대한 발전을 우리가 좀 빠르게 좀 기대하고 관심을 가져야 되지 않을까 생각이 들 정도입니다.

◇이대호> 방어하는 기술. 이게 참 어떻게 보면 인터넷이나 컴퓨터 초반에 공격, 해커들이 생기면 또 방어하는 기술 만들듯이 똑같네요, 딥페이크에서도. 근데 그게 또 이제 AI 영역으로 가버리면 더 어렵고 이런 거는 없습니까, 혹시 기술적으로?

◆김상윤> 실제로 이제 AI 분야가 역사가 한 70년 됐거든요. 1950년부터 연구가 시작됐습니다. 결국은 여러 다양한 시도들이 있어왔고 사실 이런 위조, 변조, 가공이라는 영역만 보면 사실 음성을 타깃으로 가장 빠르게 발전을 해왔죠. 그래서 지금 최근에 이제 이런 범죄들이 아주 완성도 높게 실제로 많은 사람들이 이런 것에 피해를 보고 있는 것이고요. 그다음이 이제 사진입니다. 그리고 이제 영상이죠. 여기까지도 지금 충분히 아주 고도화가 진행되고 있습니다. 이제 그다음 언어로 가고 있죠. 인간의 언어 체계라든지 창작 혹은 통찰력에까지도 인간의 어떤 지능과 인간의 판단을 모방한 영역들이 등장하고 있습니다. 사실 우리가 요즘 챗GPT 흔히들 쓰고 계신데요. 생성형 AI라고 하는 게 인간의 언어 체계를 복사했다라고 보시면 되죠. 그러면 우리가 뭐 책을 한 권 쓴다, 보고서를 쓴다 이런 것들까지 인간의 뇌 속에서 일어나는 판단과 언어적 체계들을 그대로 인공지능이 활용하고 있다 이렇게 볼 수가 있는 것이죠. 그런 관점에서 딥페이크를 방어하는 기술들도 지금 충분히 발전이 필요한 상황이고 실제로 많은 기업들에 의해서 시도는 되고 있습니다. 예를 들면 여러 가지 이제 방법적인 측면들이 있는데 이 딥페이크 사진과 영상 이 파일 자체의 고유성을 탐지하는 기술이 또 하나의 접근법으로 활용이 되고 있습니다.

◇이대호> 파일 자체의 고유성이요?

◆김상윤> 네. 그러니까 이 파일이 오리지널 파일인가, 한 번 가공이 된 파일인가를 체크하는 거죠.

◇이대호> 오염된 건지 아닌지.

◆김상윤> 네. 맞습니다. 마이크로소프트 뭐 다들 아시는 세계에서 정말 이 IT 분야를 이끌고 있는 기업은 이 디지털 콘텐츠의 오리지널리티를 판단하는 뭔가 여기서 가공이 됐고 덧붙여졌고 뭔가 합성이 됐고 하는 것들을 식별해내는 기술을 지금 개발을 하고 있고요. 물론 아직까지 뭐 특정 서비스가 나왔거나 툴이 됐거나 이런 것까지는 아닙니다. 내부적으로 이렇게 기술을 진화시켜 나가고 있고요. 인텔의 경우에는 페이크캐쳐라는 이름의 기술을 개발을 했습니다. 이게 뭐냐 하면 바이오 정보와 딥페이크, 딥러닝을 같이 융합해서 활용하는 건데 우리 인간의 얼굴에 아주 미세하게 현미경으로 관찰하면 혈류의 흐름에 따라서 피부 색깔이 다릅니다. 혈관의 모양이 뭐 나노 단위로 보면 보일 거고요. 아니면 이 피부 색깔도 톤도 혈관이 얼마나 가까이 있느냐, 깊이 있느냐, 혈관의 두께, 이런 것에 따라서 미묘하게 이런 색감들이 달라지죠. 인간의 눈에는 정확하게 인식이 안 될 수 있지만 인공지공 이런 것까지 식별이 가능합니다, 그러다 보니까 영상이나 사진에서 사람 얼굴이 등장했을때 이 얼굴이 실제 이런 혈류 흐름이나 바이오 정보를 담고 있느냐. 이것이 이제 리얼이냐, 페이크냐를 판단할 수 있는 기술들이 지금 생겨나고 있는 것이죠. 인텔의 페이크캐쳐가 바로 그 부분의 서비스고요. 실제로 이제 사람 피부의 혈류와 같은 이런 정보들을 아주 미세한 픽셀 단위의 영상 분석을 통해서 이걸 식별해내고 회사 측의 발표에 따르면 약 96%까지 가짜를 식별해낼 수 있더라라고 완성도를 밝히고 있습니다.

◇이대호> 굉장히 이제 정밀한 기준으로 이제 잡아내는 거네요. 영상의 해상도도 좋아야 될 것 같은데요.

◆김상윤> 그렇죠. 아주 해상도가 높은 곳에만 좀 적용될 수 있을 것 같긴 합니다.

◇이대호> 어떻게 보면 이제 방어 기술이라고 표현해 주셨는데 또 그런 시기 덕분에 글로벌 보안업체들도 탄생이 됐던 것처럼 어떻게 보면 또 산업적인 측면에서 기술도 발전하면서 보안업체들도 또 커갈 수 있는 또 기회가 되기도 하는 거네요. 이게 또 어떻게 보면 이제 딥페이크 기술도 그동안 규제가 없었기 때문에 또 기술이 또 빠르게 발전한 것도 있지 않을까요?

◆김상윤> 네. 그렇죠. 이제 모든 기술은 기존에 없던 새로운 현상들이 많죠. 그러다 보니까 이게 법적 제도적인 혹은 사회 질서적인 부분들이 이 기술의 변화에 대해서 반영하고 있지 못하는 경우들이 많습니다. 그러다 보니 디지털 신종 범죄라고 하는 게 신종이라는 단어가 붙잖아요. 지금까지 우리가 뭐 여러 차례 전화 음성 사기부터 시작해서 요즘은 이제 위조, 변조해서 뭐 이런 것까지 이제 고도화되는 과정들이 결국 법적 제도적 틀을 벗어나는 새로운 형태의 범죄 유형이라는 것이죠. 기술이라는 것이 새로 발전하다 보니까 완전히 전혀 다른 이런 경험들을 만들어주게 되고 결국 법 제도의 규제 이런 틀이 이 기술 변화에 따라서 생겨나는 사회적 부작용들을 커버할 수 있어야 된다. 그런 점에서 우리가 사회적 관심을 가지고 이것이 단순히 기술업계의 노력만이 아니라 우리 모두의 관심과 또 법적 제도적인 영역에 해당되는 분들이 이런 것들을 좀 적극적으로 이것을 받아들이고 고민하는 시기가 왔다라고 봅니다.

◇이대호> 좋은 말씀이십니다. 9*** 쓰시는 분께서 얼마 전에 그 원더랜드 영화에서 죽은 사람을 계속 영상통화로 만나는 게 슬퍼 보였습니다. 아쉽지만 잊혀질 권리를 주는 게 맞는 것 같더라고요, 이렇게 보내주셨고. 그렇죠. 또 이게 사후도 마찬가지고 내 영상이 어딘가에 합성이 돼 있거나 좋지 않은 의도로 쓰였을 때 그거를 또 빠르게 삭제할 수 있는가. 요즘에 뭐 디지털 장의사라는 이렇게 표현도 쓰던데요. 그런 건 어떻게 좀 잘 돼 있습니까? 본인이 요청을 하면 나 지금 피해당했는데 바로 정정이 되거나 삭제가 되거나 이럴 수는 있나요?

◆김상윤> 점점 더 어려워지고 있죠.

◇이대호> 더 어려워져요?

◆김상윤> 네. 그러다 보니까 이제 이런 전문 업체들까지 생겨나고 상당히 고가 비용을 지불해야 됩니다, 제가 알기로는. 결국은 뭐 우리 인류가 계속 물리 세계에서 디지털 세계로 옮겨가고 있잖아요. 뭐 메타버스도 우리가 한 번 이런 또 붐이 있기도 했고. 모든 것이 디지털로 옮겨지는 이 상황에서 우리의 많은 정보들이 디지털에 존재하게 되고 가공되게 되고 이런 여러 가지 또 부작용들이 생기는 거죠. 그래서 이런 잊혀질 권리, 우리 정보 관리나 또 삭제에 대한 어떤 관심들, 요구 사항들이 점점 더 커질 것으로 보입니다.

◇이대호> 곽** 님이 보이스피싱부터 지금은 이제 얼굴을 이용하는 딥페이크까지 뭐든지 의심하고 조심해서 살아가야 하네요. ㅠㅠ 이렇게 보내셨고요. 4*** 님. 앞으로 더 발전하지 않을까요? 또 AI도 이제 기대를 합니다. 또 이렇게 해서 우리가 좀 밝은 면이 더 부각이 될 수 있도록 뭐 제도적으로도 그렇고 일단 당장은 또 당하지 않도록, 피해 입지 않도록 또 조심하고 또 보완해야 될 측면은 또 우리가 계속해서 또 이야기를 내고 이렇게 해야겠네요. 중앙대학교 컴퓨터공학과 김상윤 연구교수에게 많이 배웠습니다. 고맙습니다.

◆김상윤> 네. 감사합니다.

이 기사가 좋으셨다면

오늘의 핫 클릭

실시간 뜨거운 관심을 받고 있는 뉴스

이 기사에 대한 의견을 남겨주세요.

수신료 수신료