“딸 목소리 똑같은데”…인공지능 ‘딥보이스’ 악용한 사기까지
입력 2024.07.25 (19:23)
수정 2024.07.25 (20:27)
읽어주기 기능은 크롬기반의
브라우저에서만 사용하실 수 있습니다.
[앵커]
KBS전주방송총국이 마련한 연중기획 순서입니다.
전화금융사기 범죄가 인공지능 기술을 활용해 갈수록 진화하고 있습니다.
전화기 너머에서 가족이나 친구 목소리로 돈을 보내달라는데, 그 목소리가 가짜라면 어떻게 하실 건가요?
서윤덕 기자가 취재했습니다.
[리포트]
한 여성이 은행 창구에 앉아 있습니다.
"친구 보증을 섰다 잡혀 왔다"는 딸의 전화를 받고 황급히 2천만 원을 찾으러 온 어머니입니다.
전화금융사기로 판단한 은행 창구 직원 덕에 피해로 이어지지는 않았지만, 음색과 말투가 딸과 거의 비슷했다는 어머니 말에, 당시 경찰은 인공지능 기술 악용 가능성을 제기했습니다.
[경찰 관계자/음성변조 : "피해자 말을 들으니까 '딸의 음성하고 비슷하다'고 이야기하니까…. '음성 복제' 기술이 사용되지 않았을까…."]
짧은 길이의 음성 표본만으로도 누구나 인공지능 기술을 이용해 그 사람이 말하는 것처럼 꾸며낼 수 있습니다.
인공지능으로 만든 목소리가 실제 제 목소리와 얼마나 비슷한지 동료 기자들에게 전화를 걸어 실험해봤습니다.
금전과 전혀 관계없이 일상적인 대화만으로 이뤄진 20초 남짓 녹음 파일을 기반으로 돈을 빌려달라는 음성 문장을 만들었습니다.
[동료 기자 : "여보세요?"]
[인공지능 음성 : "형. 진짜 미안한데 급해서 그런데 10만 원만 빌려줘라."]
[동료 기자 : "응. 뭐. 보내주면 돼?"]
곧바로 돈을 이체하겠다고 말합니다.
[서윤덕/기자 : "인공지능으로 목소리 만들어서 실험하고 있거든요."]
[동료 기자 : "네 목소리 똑같다."]
설사 속지 않더라도 아는 사람과 목소리나 말투가 거의 비슷하다 보니 께름칙한 기분을 지울 수가 없습니다.
여기에 얼굴 등 이미지를 본 따는 딥페이크 기술까지 병행하면 누구든 감쪽같이 속을 수밖에 없습니다.
이렇다 보니, 전문가들은 가족이나 지인을 사칭하는 전화금융사기에 악용할 가능성이 크다고 경고합니다.
[박종승/전주대학교 경찰학과 교수 : "'아이가 납치됐다'라거나 이런 경우에 이제 사용될 수가 있겠죠. 동일한 목소리, 자식의 얼굴까지 이렇게 충분히 이용할 수 있는 범죄이다 보니까…."]
전문가들은 음성 복제가 의심될 경우, 일단 아무 말 없이 끊어야 하고, 가족이나 지인끼리 미리 암호를 정하는 것도 피해 예방에 도움 된다고 당부합니다.
KBS 뉴스 서윤덕입니다.
촬영기자:정성수
▼ 인공지능 악용 전화금융사기…어디까지?
[앵커]
이어서 인공지능을 악용한 전화금융사기에 대해 취재기자와 자세한 이야기를 나눕니다.
서윤덕 기자, 먼저, 인공지능 기능으로 목소리를 만들어 사람들이 정말 속는지 실험했잖아요.
어땠나요?
[기자]
생각만큼 많이 속지는 않았습니다.
평소 제 목소리를 잘 아는 동료 기자 5명에게 전화를 걸었는데요.
1명은 믿었고, 2명은 의심, 2명은 전혀 믿지 않았습니다.
의심하거나 믿지 않았던 사람들은 음색이나 말투는 비슷한데 어색했다고 말했습니다.
제 목소리 표본이 20초 정도로 짧았기 때문에, 어색한 부분이 있었던 것 같습니다.
중요한 점은 그럼에도 1명은 속았다는 겁니다.
사기 피해로 이어질 가능성은 충분히 있어 보입니다.
전문가들도 인공지능으로 만든 목소리가 조금 어색하다고 해도 실제 상황에서는 당황하거나 판단력이 흐려져 알아채기 어려울 수 있다고 설명했습니다.
[앵커]
그렇다면 이 같은 '가짜 목소리'로 인한 피해 사례는 얼마나 있을까요?
[기자]
현재로서는 정확한 피해 사례가 있다고 보기에는 어려울 것 같습니다.
앞서 전해드린 부산 사례는 피해자와 전화금융사기조직과의 통화 녹음이 없습니다.
딸과 음색, 어투가 비슷하다는 피해자 진술을 통해 경찰이 '음성 복제' 기술이 사용됐을 가능성을 제기한 것이고요.
제주 등에서도 비슷한 신고가 있었지만, 마찬가지로 추정하고 있을 뿐입니다.
그렇다고 위험하지 않다는 뜻은 아닙니다.
전화금융사기는 아니지만, 유명 연예인들의 얼굴과 목소리를 합성한 가짜 영상으로 사람들을 유인한 투자 사기가 있었습니다.
해외에서는 금융회사 직원이 가짜 영상통화에 속아 수백억 원을 부치는 일도 있었습니다.
인공지능 기술이 계속 발전하고 있어 전화금융사기에 어떻게 악용될지 예측하기 어렵다는 점도 문제로 꼽힙니다.
[앵커]
대처법도 달라져야 할 것 같은데 자세히 설명해주시죠.
[기자]
일단, 목소리를 지켜야 합니다.
전화금융사기조직이 훔쳐가지 못하게 의심스러운 전화가 오면 '아무 말 없이', 바로 끊어야 합니다.
또 사회관계망서비스 등에 목소리가 포함된 영상을 올리지 않아야 합니다.
하지만 사람에 따라 쉽지 않은 일이기도 한데요.
그래서 가족이나 친한 지인끼리 질문과 답변을 미리 정해 놓는 것도 방법입니다.
기존 전화금융사기 대처법도 잘 알아두셔야 합니다.
어디에 전화를 걸어도 사기 조직으로 연결되는 악성 앱이 설치될 수 있어 문자에 있는 인터넷 주소를 누르지 말아야 합니다.
의심되는 전화가 오면 일단 끊고, 끊지 못하면 다른 전화기로 112에 신고해야 합니다.
[앵커]
네, 여기까지 듣겠습니다.
KBS전주방송총국이 마련한 연중기획 순서입니다.
전화금융사기 범죄가 인공지능 기술을 활용해 갈수록 진화하고 있습니다.
전화기 너머에서 가족이나 친구 목소리로 돈을 보내달라는데, 그 목소리가 가짜라면 어떻게 하실 건가요?
서윤덕 기자가 취재했습니다.
[리포트]
한 여성이 은행 창구에 앉아 있습니다.
"친구 보증을 섰다 잡혀 왔다"는 딸의 전화를 받고 황급히 2천만 원을 찾으러 온 어머니입니다.
전화금융사기로 판단한 은행 창구 직원 덕에 피해로 이어지지는 않았지만, 음색과 말투가 딸과 거의 비슷했다는 어머니 말에, 당시 경찰은 인공지능 기술 악용 가능성을 제기했습니다.
[경찰 관계자/음성변조 : "피해자 말을 들으니까 '딸의 음성하고 비슷하다'고 이야기하니까…. '음성 복제' 기술이 사용되지 않았을까…."]
짧은 길이의 음성 표본만으로도 누구나 인공지능 기술을 이용해 그 사람이 말하는 것처럼 꾸며낼 수 있습니다.
인공지능으로 만든 목소리가 실제 제 목소리와 얼마나 비슷한지 동료 기자들에게 전화를 걸어 실험해봤습니다.
금전과 전혀 관계없이 일상적인 대화만으로 이뤄진 20초 남짓 녹음 파일을 기반으로 돈을 빌려달라는 음성 문장을 만들었습니다.
[동료 기자 : "여보세요?"]
[인공지능 음성 : "형. 진짜 미안한데 급해서 그런데 10만 원만 빌려줘라."]
[동료 기자 : "응. 뭐. 보내주면 돼?"]
곧바로 돈을 이체하겠다고 말합니다.
[서윤덕/기자 : "인공지능으로 목소리 만들어서 실험하고 있거든요."]
[동료 기자 : "네 목소리 똑같다."]
설사 속지 않더라도 아는 사람과 목소리나 말투가 거의 비슷하다 보니 께름칙한 기분을 지울 수가 없습니다.
여기에 얼굴 등 이미지를 본 따는 딥페이크 기술까지 병행하면 누구든 감쪽같이 속을 수밖에 없습니다.
이렇다 보니, 전문가들은 가족이나 지인을 사칭하는 전화금융사기에 악용할 가능성이 크다고 경고합니다.
[박종승/전주대학교 경찰학과 교수 : "'아이가 납치됐다'라거나 이런 경우에 이제 사용될 수가 있겠죠. 동일한 목소리, 자식의 얼굴까지 이렇게 충분히 이용할 수 있는 범죄이다 보니까…."]
전문가들은 음성 복제가 의심될 경우, 일단 아무 말 없이 끊어야 하고, 가족이나 지인끼리 미리 암호를 정하는 것도 피해 예방에 도움 된다고 당부합니다.
KBS 뉴스 서윤덕입니다.
촬영기자:정성수
▼ 인공지능 악용 전화금융사기…어디까지?
[앵커]
이어서 인공지능을 악용한 전화금융사기에 대해 취재기자와 자세한 이야기를 나눕니다.
서윤덕 기자, 먼저, 인공지능 기능으로 목소리를 만들어 사람들이 정말 속는지 실험했잖아요.
어땠나요?
[기자]
생각만큼 많이 속지는 않았습니다.
평소 제 목소리를 잘 아는 동료 기자 5명에게 전화를 걸었는데요.
1명은 믿었고, 2명은 의심, 2명은 전혀 믿지 않았습니다.
의심하거나 믿지 않았던 사람들은 음색이나 말투는 비슷한데 어색했다고 말했습니다.
제 목소리 표본이 20초 정도로 짧았기 때문에, 어색한 부분이 있었던 것 같습니다.
중요한 점은 그럼에도 1명은 속았다는 겁니다.
사기 피해로 이어질 가능성은 충분히 있어 보입니다.
전문가들도 인공지능으로 만든 목소리가 조금 어색하다고 해도 실제 상황에서는 당황하거나 판단력이 흐려져 알아채기 어려울 수 있다고 설명했습니다.
[앵커]
그렇다면 이 같은 '가짜 목소리'로 인한 피해 사례는 얼마나 있을까요?
[기자]
현재로서는 정확한 피해 사례가 있다고 보기에는 어려울 것 같습니다.
앞서 전해드린 부산 사례는 피해자와 전화금융사기조직과의 통화 녹음이 없습니다.
딸과 음색, 어투가 비슷하다는 피해자 진술을 통해 경찰이 '음성 복제' 기술이 사용됐을 가능성을 제기한 것이고요.
제주 등에서도 비슷한 신고가 있었지만, 마찬가지로 추정하고 있을 뿐입니다.
그렇다고 위험하지 않다는 뜻은 아닙니다.
전화금융사기는 아니지만, 유명 연예인들의 얼굴과 목소리를 합성한 가짜 영상으로 사람들을 유인한 투자 사기가 있었습니다.
해외에서는 금융회사 직원이 가짜 영상통화에 속아 수백억 원을 부치는 일도 있었습니다.
인공지능 기술이 계속 발전하고 있어 전화금융사기에 어떻게 악용될지 예측하기 어렵다는 점도 문제로 꼽힙니다.
[앵커]
대처법도 달라져야 할 것 같은데 자세히 설명해주시죠.
[기자]
일단, 목소리를 지켜야 합니다.
전화금융사기조직이 훔쳐가지 못하게 의심스러운 전화가 오면 '아무 말 없이', 바로 끊어야 합니다.
또 사회관계망서비스 등에 목소리가 포함된 영상을 올리지 않아야 합니다.
하지만 사람에 따라 쉽지 않은 일이기도 한데요.
그래서 가족이나 친한 지인끼리 질문과 답변을 미리 정해 놓는 것도 방법입니다.
기존 전화금융사기 대처법도 잘 알아두셔야 합니다.
어디에 전화를 걸어도 사기 조직으로 연결되는 악성 앱이 설치될 수 있어 문자에 있는 인터넷 주소를 누르지 말아야 합니다.
의심되는 전화가 오면 일단 끊고, 끊지 못하면 다른 전화기로 112에 신고해야 합니다.
[앵커]
네, 여기까지 듣겠습니다.
■ 제보하기
▷ 카카오톡 : 'KBS제보' 검색, 채널 추가
▷ 전화 : 02-781-1234, 4444
▷ 이메일 : kbs1234@kbs.co.kr
▷ 유튜브, 네이버, 카카오에서도 KBS뉴스를 구독해주세요!
- “딸 목소리 똑같은데”…인공지능 ‘딥보이스’ 악용한 사기까지
-
- 입력 2024-07-25 19:23:27
- 수정2024-07-25 20:27:42
[앵커]
KBS전주방송총국이 마련한 연중기획 순서입니다.
전화금융사기 범죄가 인공지능 기술을 활용해 갈수록 진화하고 있습니다.
전화기 너머에서 가족이나 친구 목소리로 돈을 보내달라는데, 그 목소리가 가짜라면 어떻게 하실 건가요?
서윤덕 기자가 취재했습니다.
[리포트]
한 여성이 은행 창구에 앉아 있습니다.
"친구 보증을 섰다 잡혀 왔다"는 딸의 전화를 받고 황급히 2천만 원을 찾으러 온 어머니입니다.
전화금융사기로 판단한 은행 창구 직원 덕에 피해로 이어지지는 않았지만, 음색과 말투가 딸과 거의 비슷했다는 어머니 말에, 당시 경찰은 인공지능 기술 악용 가능성을 제기했습니다.
[경찰 관계자/음성변조 : "피해자 말을 들으니까 '딸의 음성하고 비슷하다'고 이야기하니까…. '음성 복제' 기술이 사용되지 않았을까…."]
짧은 길이의 음성 표본만으로도 누구나 인공지능 기술을 이용해 그 사람이 말하는 것처럼 꾸며낼 수 있습니다.
인공지능으로 만든 목소리가 실제 제 목소리와 얼마나 비슷한지 동료 기자들에게 전화를 걸어 실험해봤습니다.
금전과 전혀 관계없이 일상적인 대화만으로 이뤄진 20초 남짓 녹음 파일을 기반으로 돈을 빌려달라는 음성 문장을 만들었습니다.
[동료 기자 : "여보세요?"]
[인공지능 음성 : "형. 진짜 미안한데 급해서 그런데 10만 원만 빌려줘라."]
[동료 기자 : "응. 뭐. 보내주면 돼?"]
곧바로 돈을 이체하겠다고 말합니다.
[서윤덕/기자 : "인공지능으로 목소리 만들어서 실험하고 있거든요."]
[동료 기자 : "네 목소리 똑같다."]
설사 속지 않더라도 아는 사람과 목소리나 말투가 거의 비슷하다 보니 께름칙한 기분을 지울 수가 없습니다.
여기에 얼굴 등 이미지를 본 따는 딥페이크 기술까지 병행하면 누구든 감쪽같이 속을 수밖에 없습니다.
이렇다 보니, 전문가들은 가족이나 지인을 사칭하는 전화금융사기에 악용할 가능성이 크다고 경고합니다.
[박종승/전주대학교 경찰학과 교수 : "'아이가 납치됐다'라거나 이런 경우에 이제 사용될 수가 있겠죠. 동일한 목소리, 자식의 얼굴까지 이렇게 충분히 이용할 수 있는 범죄이다 보니까…."]
전문가들은 음성 복제가 의심될 경우, 일단 아무 말 없이 끊어야 하고, 가족이나 지인끼리 미리 암호를 정하는 것도 피해 예방에 도움 된다고 당부합니다.
KBS 뉴스 서윤덕입니다.
촬영기자:정성수
▼ 인공지능 악용 전화금융사기…어디까지?
[앵커]
이어서 인공지능을 악용한 전화금융사기에 대해 취재기자와 자세한 이야기를 나눕니다.
서윤덕 기자, 먼저, 인공지능 기능으로 목소리를 만들어 사람들이 정말 속는지 실험했잖아요.
어땠나요?
[기자]
생각만큼 많이 속지는 않았습니다.
평소 제 목소리를 잘 아는 동료 기자 5명에게 전화를 걸었는데요.
1명은 믿었고, 2명은 의심, 2명은 전혀 믿지 않았습니다.
의심하거나 믿지 않았던 사람들은 음색이나 말투는 비슷한데 어색했다고 말했습니다.
제 목소리 표본이 20초 정도로 짧았기 때문에, 어색한 부분이 있었던 것 같습니다.
중요한 점은 그럼에도 1명은 속았다는 겁니다.
사기 피해로 이어질 가능성은 충분히 있어 보입니다.
전문가들도 인공지능으로 만든 목소리가 조금 어색하다고 해도 실제 상황에서는 당황하거나 판단력이 흐려져 알아채기 어려울 수 있다고 설명했습니다.
[앵커]
그렇다면 이 같은 '가짜 목소리'로 인한 피해 사례는 얼마나 있을까요?
[기자]
현재로서는 정확한 피해 사례가 있다고 보기에는 어려울 것 같습니다.
앞서 전해드린 부산 사례는 피해자와 전화금융사기조직과의 통화 녹음이 없습니다.
딸과 음색, 어투가 비슷하다는 피해자 진술을 통해 경찰이 '음성 복제' 기술이 사용됐을 가능성을 제기한 것이고요.
제주 등에서도 비슷한 신고가 있었지만, 마찬가지로 추정하고 있을 뿐입니다.
그렇다고 위험하지 않다는 뜻은 아닙니다.
전화금융사기는 아니지만, 유명 연예인들의 얼굴과 목소리를 합성한 가짜 영상으로 사람들을 유인한 투자 사기가 있었습니다.
해외에서는 금융회사 직원이 가짜 영상통화에 속아 수백억 원을 부치는 일도 있었습니다.
인공지능 기술이 계속 발전하고 있어 전화금융사기에 어떻게 악용될지 예측하기 어렵다는 점도 문제로 꼽힙니다.
[앵커]
대처법도 달라져야 할 것 같은데 자세히 설명해주시죠.
[기자]
일단, 목소리를 지켜야 합니다.
전화금융사기조직이 훔쳐가지 못하게 의심스러운 전화가 오면 '아무 말 없이', 바로 끊어야 합니다.
또 사회관계망서비스 등에 목소리가 포함된 영상을 올리지 않아야 합니다.
하지만 사람에 따라 쉽지 않은 일이기도 한데요.
그래서 가족이나 친한 지인끼리 질문과 답변을 미리 정해 놓는 것도 방법입니다.
기존 전화금융사기 대처법도 잘 알아두셔야 합니다.
어디에 전화를 걸어도 사기 조직으로 연결되는 악성 앱이 설치될 수 있어 문자에 있는 인터넷 주소를 누르지 말아야 합니다.
의심되는 전화가 오면 일단 끊고, 끊지 못하면 다른 전화기로 112에 신고해야 합니다.
[앵커]
네, 여기까지 듣겠습니다.
KBS전주방송총국이 마련한 연중기획 순서입니다.
전화금융사기 범죄가 인공지능 기술을 활용해 갈수록 진화하고 있습니다.
전화기 너머에서 가족이나 친구 목소리로 돈을 보내달라는데, 그 목소리가 가짜라면 어떻게 하실 건가요?
서윤덕 기자가 취재했습니다.
[리포트]
한 여성이 은행 창구에 앉아 있습니다.
"친구 보증을 섰다 잡혀 왔다"는 딸의 전화를 받고 황급히 2천만 원을 찾으러 온 어머니입니다.
전화금융사기로 판단한 은행 창구 직원 덕에 피해로 이어지지는 않았지만, 음색과 말투가 딸과 거의 비슷했다는 어머니 말에, 당시 경찰은 인공지능 기술 악용 가능성을 제기했습니다.
[경찰 관계자/음성변조 : "피해자 말을 들으니까 '딸의 음성하고 비슷하다'고 이야기하니까…. '음성 복제' 기술이 사용되지 않았을까…."]
짧은 길이의 음성 표본만으로도 누구나 인공지능 기술을 이용해 그 사람이 말하는 것처럼 꾸며낼 수 있습니다.
인공지능으로 만든 목소리가 실제 제 목소리와 얼마나 비슷한지 동료 기자들에게 전화를 걸어 실험해봤습니다.
금전과 전혀 관계없이 일상적인 대화만으로 이뤄진 20초 남짓 녹음 파일을 기반으로 돈을 빌려달라는 음성 문장을 만들었습니다.
[동료 기자 : "여보세요?"]
[인공지능 음성 : "형. 진짜 미안한데 급해서 그런데 10만 원만 빌려줘라."]
[동료 기자 : "응. 뭐. 보내주면 돼?"]
곧바로 돈을 이체하겠다고 말합니다.
[서윤덕/기자 : "인공지능으로 목소리 만들어서 실험하고 있거든요."]
[동료 기자 : "네 목소리 똑같다."]
설사 속지 않더라도 아는 사람과 목소리나 말투가 거의 비슷하다 보니 께름칙한 기분을 지울 수가 없습니다.
여기에 얼굴 등 이미지를 본 따는 딥페이크 기술까지 병행하면 누구든 감쪽같이 속을 수밖에 없습니다.
이렇다 보니, 전문가들은 가족이나 지인을 사칭하는 전화금융사기에 악용할 가능성이 크다고 경고합니다.
[박종승/전주대학교 경찰학과 교수 : "'아이가 납치됐다'라거나 이런 경우에 이제 사용될 수가 있겠죠. 동일한 목소리, 자식의 얼굴까지 이렇게 충분히 이용할 수 있는 범죄이다 보니까…."]
전문가들은 음성 복제가 의심될 경우, 일단 아무 말 없이 끊어야 하고, 가족이나 지인끼리 미리 암호를 정하는 것도 피해 예방에 도움 된다고 당부합니다.
KBS 뉴스 서윤덕입니다.
촬영기자:정성수
▼ 인공지능 악용 전화금융사기…어디까지?
[앵커]
이어서 인공지능을 악용한 전화금융사기에 대해 취재기자와 자세한 이야기를 나눕니다.
서윤덕 기자, 먼저, 인공지능 기능으로 목소리를 만들어 사람들이 정말 속는지 실험했잖아요.
어땠나요?
[기자]
생각만큼 많이 속지는 않았습니다.
평소 제 목소리를 잘 아는 동료 기자 5명에게 전화를 걸었는데요.
1명은 믿었고, 2명은 의심, 2명은 전혀 믿지 않았습니다.
의심하거나 믿지 않았던 사람들은 음색이나 말투는 비슷한데 어색했다고 말했습니다.
제 목소리 표본이 20초 정도로 짧았기 때문에, 어색한 부분이 있었던 것 같습니다.
중요한 점은 그럼에도 1명은 속았다는 겁니다.
사기 피해로 이어질 가능성은 충분히 있어 보입니다.
전문가들도 인공지능으로 만든 목소리가 조금 어색하다고 해도 실제 상황에서는 당황하거나 판단력이 흐려져 알아채기 어려울 수 있다고 설명했습니다.
[앵커]
그렇다면 이 같은 '가짜 목소리'로 인한 피해 사례는 얼마나 있을까요?
[기자]
현재로서는 정확한 피해 사례가 있다고 보기에는 어려울 것 같습니다.
앞서 전해드린 부산 사례는 피해자와 전화금융사기조직과의 통화 녹음이 없습니다.
딸과 음색, 어투가 비슷하다는 피해자 진술을 통해 경찰이 '음성 복제' 기술이 사용됐을 가능성을 제기한 것이고요.
제주 등에서도 비슷한 신고가 있었지만, 마찬가지로 추정하고 있을 뿐입니다.
그렇다고 위험하지 않다는 뜻은 아닙니다.
전화금융사기는 아니지만, 유명 연예인들의 얼굴과 목소리를 합성한 가짜 영상으로 사람들을 유인한 투자 사기가 있었습니다.
해외에서는 금융회사 직원이 가짜 영상통화에 속아 수백억 원을 부치는 일도 있었습니다.
인공지능 기술이 계속 발전하고 있어 전화금융사기에 어떻게 악용될지 예측하기 어렵다는 점도 문제로 꼽힙니다.
[앵커]
대처법도 달라져야 할 것 같은데 자세히 설명해주시죠.
[기자]
일단, 목소리를 지켜야 합니다.
전화금융사기조직이 훔쳐가지 못하게 의심스러운 전화가 오면 '아무 말 없이', 바로 끊어야 합니다.
또 사회관계망서비스 등에 목소리가 포함된 영상을 올리지 않아야 합니다.
하지만 사람에 따라 쉽지 않은 일이기도 한데요.
그래서 가족이나 친한 지인끼리 질문과 답변을 미리 정해 놓는 것도 방법입니다.
기존 전화금융사기 대처법도 잘 알아두셔야 합니다.
어디에 전화를 걸어도 사기 조직으로 연결되는 악성 앱이 설치될 수 있어 문자에 있는 인터넷 주소를 누르지 말아야 합니다.
의심되는 전화가 오면 일단 끊고, 끊지 못하면 다른 전화기로 112에 신고해야 합니다.
[앵커]
네, 여기까지 듣겠습니다.
-
-
서윤덕 기자 duck@kbs.co.kr
서윤덕 기자의 기사 모음
-
이 기사가 좋으셨다면
-
좋아요
0
-
응원해요
0
-
후속 원해요
0
이 기사에 대한 의견을 남겨주세요.