KBS NEWS

뉴스

[연속기획] 외국인 불법 취업 ‘수수방관’…벼랑 끝 내몰리는 건설 일용직들
외국인 불법 취업 ‘수수방관’…벼랑 끝 내몰리는 건설 일용직들
지난해 우리나라의 건설투자액은 259조 원 국내총생산 GDP 대비 비중은 16%에 이릅니다. 건설산업...
반려동물 물리면 안되는 치명적 이유…‘2차 감염’이 더 위험
반려동물 물리면 안되는 치명적 이유…‘2차 감염’ 더 위험
반려동물 인구 천만 시대가 되면서 반려견에 물리는 사고가 최근 5년 새 4배나 급증한 가운데...

TV엔 없다

프로그램

기상·재해
기상·재해 뉴스 멈춤 기상·재해 뉴스 시작
뉴스 검색
[글로벌 경제] 인공지능 AI, ‘편견’과 ‘차별’도 배운다!
입력 2017.06.05 (18:07) | 수정 2017.06.05 (18:47) KBS 경제타임
동영상영역 시작
[글로벌 경제] 인공지능 AI, ‘편견’과 ‘차별’도 배운다! 저작권
동영상영역 끝
<앵커 멘트>

세계경제를 한눈에 보여드리겠습니다.

글로벌 경제 옥유정 기자와 함께 합니다.

<질문>
오늘 인공지능에 대해 진지하게 생각해 볼 주제를 갖고 오셨죠?

<답변>
네, 준비한 영상부터 먼저 볼까요!

러시아가 개발한 인공지능 로봇인데요.

우주비행사로 훈련을 시켜서 달 탐사에 나설 계획이라고 합니다.

그런데, 사격솜씨가 예사롭지 않죠?

러시아가 인공지능을 활용해서 전쟁무기를 개발하는 것 아니냐 의혹이 있었습니다.

<질문>
터미네이터가 환생한 것 같은데요.

저를 지켜주는 보디가드라면 든든하겠지만 저를 적으로 인식한다면, 상상하기도 싫습니다.

<답변>
네, 말씀하신 것처럼 인공지능이 우리에게 호의적이냐, 적대적이냐, 매우 중요한 문젭니다.

물리적인 위협 뿐 아니라 정신적인 압박을 줄 수도 있는데요.

인공지능이 객관적인 자료만 학습하는 게 아니라 사람들의 잘못된 '편견'도 그대로 배운다고 합니다.

지난달 알파고의 2차 출격이 있었죠. 명실상부 세계 1위 커제 9단과 대국을 벌였는데 결과는 알파고의 완승이었습니다.

그리고, 알파고는 데뷔 1년 만에 은퇴를 선언합니다.

인간세상에는 더 이상 적수가 없다, 이런 뜻이겠죠.

이제 인공지능은 시행착오를 넘어 스스로 학습하는 수준까지 진화했는데요. 놀라운 건, 사람의 선입견도 빠르게 습득한다는 사실입니다.

미국 프린스턴 대학의 연구결관데요.

의사가 신발끈을 묶는다는 문장을 입력하고, 의사를 간호사로 바꾸자 인공지능이 주어를 그녀라고 바꿉니다.

의사는 남성으로 간호사는 여성으로 인식하는 거죠.

지난해에는 마이크로소프트사가 개발한 한 채팅로봇이 부적절한 발언으로 물의를 일으켰습니다.

나치독일의 유대인 대학살-홀로코스트가 실제 있었냐? 는 질문에 모두 지어낸 얘기다라고 답해서 논란이 일파만파였죠.

마이크로소프트 사는 즉시 계정을 폐쇄하고 사과성명을 냈습니다.

<녹취> 쉘리 팔머('디지털 위즈덤' 저자) : "대화형 플랫폼의 흥미로운 점은 인간을 통해 배운다는 겁니다. 가르쳐 주는 대로 배우는 거죠. 증오를 배우면 그것을 그대로 습득하는 겁니다."

인공지능을 활용한 얼굴 인식 프로그램도 문제점을 드러냈습니다.

흑인은 얼굴 인식이 안 되는데 하얀 마스크를 쓰니까 됩니다.

오바마의 오른쪽 사진이 어딘가 어색하죠? 인공지능을 접목한 사진보정 어플 때문인데요.

멋지게 편집해 달라는 요청에 흑인 얼굴을 하얗게 만들어 버렸습니다.

<녹취> 조이 부올람위니(MIT 알고리즘 연구소장) : "이런 알고리즘은 돈에 관련된 중대한 결정에도 사용됩니다. 대출이나 보험, 취업에도 영향을 미칩니다. 한 사람이 감옥에서 얼마나 있을지 조차도 말이죠."

<질문>
물론, 전체가 다 그런 건 아니겠습니다만 인공지능이 남녀차별, 인종차별을 드러내는 걸 봤는데요.

아무래도 영어로 알고리즘을 설계하다보면 영어권 사고에 갇히거나 동양인을 차별하진 않을까요?

<답변>
네, VCR에서 다 소개해드리진 못했는데 얼굴 인식 프로그램에서요.

눈이 가늘고 긴 동양인을 눈을 감고 있어 인식이 안된다 라고 한 사례도 있습니다.

인공지능 로봇과 함께 일하고 생활해야 할 미래가 코앞으로 다가왔는데요.

인공지능 로봇이 대학교수, 법정의 판사, 그리고 뉴스 앵커라고 가정해 보면, 편견 때문에 불이익을 받는 대상이 생길 수 있습니다.

제 휴대폰의 AI는 어떨까 궁금한데요. 테스트 한번 해볼까요?

다행히 심각한 차별을 드러내거나 유도심문에 걸려들지 않네요.

<질문>
그런데, 우리 생활에서 인공지능이 보편화되는 추세를 고려하면 얼굴인식이 안돼서 특정건물에 출입을 못하거나 은행계좌를 못 만들 수도 이력서 자체를 제출 못할 수도 있겠죠.

<답변>
어떻게 해야 개선할 수 있을까요? 전문가 의견 들어보시죠.

<녹취> 에일린 캘리스캔(프린스턴 대학 정보 기술 정책 센터 연구원) : "인간의 편견이 없어져야만 인공지능이 완벽해질 텐데, 관연 그럴 수 있을지 의문입니다. 모두에게 공평해질 수 있도록 우리가 기계와 교류하는 방식을 지금 당장 바꿔야 합니다."

<녹취> 조이 부올람위니(MIT 알고리즘 연구소장) : "인공지능의 사각지대를 더 쉽게 찾아낼 수 있도록 개발자들이 더 댜양한 그룹의 사람들이어야 합니다. 코딩방식도 중요합니다. 누가, 어떤 식으로 개발하는지가 포괄적 인공지능을 만드는 데 중요합니다."

앞으로 10년 안에 전 세계 인공지능 산업이 2,000조원 시장을 창출합니다.

인류가 왜 인공지능을 도입하게 됐을까를 생각해보면, 정확한 정보 처리가 가장 중요한 요소가 아닐까 싶은데요, 빠른 개선이 필요해보입니다.
  • [글로벌 경제] 인공지능 AI, ‘편견’과 ‘차별’도 배운다!
    • 입력 2017.06.05 (18:07)
    • 수정 2017.06.05 (18:47)
    KBS 경제타임
[글로벌 경제] 인공지능 AI, ‘편견’과 ‘차별’도 배운다!
<앵커 멘트>

세계경제를 한눈에 보여드리겠습니다.

글로벌 경제 옥유정 기자와 함께 합니다.

<질문>
오늘 인공지능에 대해 진지하게 생각해 볼 주제를 갖고 오셨죠?

<답변>
네, 준비한 영상부터 먼저 볼까요!

러시아가 개발한 인공지능 로봇인데요.

우주비행사로 훈련을 시켜서 달 탐사에 나설 계획이라고 합니다.

그런데, 사격솜씨가 예사롭지 않죠?

러시아가 인공지능을 활용해서 전쟁무기를 개발하는 것 아니냐 의혹이 있었습니다.

<질문>
터미네이터가 환생한 것 같은데요.

저를 지켜주는 보디가드라면 든든하겠지만 저를 적으로 인식한다면, 상상하기도 싫습니다.

<답변>
네, 말씀하신 것처럼 인공지능이 우리에게 호의적이냐, 적대적이냐, 매우 중요한 문젭니다.

물리적인 위협 뿐 아니라 정신적인 압박을 줄 수도 있는데요.

인공지능이 객관적인 자료만 학습하는 게 아니라 사람들의 잘못된 '편견'도 그대로 배운다고 합니다.

지난달 알파고의 2차 출격이 있었죠. 명실상부 세계 1위 커제 9단과 대국을 벌였는데 결과는 알파고의 완승이었습니다.

그리고, 알파고는 데뷔 1년 만에 은퇴를 선언합니다.

인간세상에는 더 이상 적수가 없다, 이런 뜻이겠죠.

이제 인공지능은 시행착오를 넘어 스스로 학습하는 수준까지 진화했는데요. 놀라운 건, 사람의 선입견도 빠르게 습득한다는 사실입니다.

미국 프린스턴 대학의 연구결관데요.

의사가 신발끈을 묶는다는 문장을 입력하고, 의사를 간호사로 바꾸자 인공지능이 주어를 그녀라고 바꿉니다.

의사는 남성으로 간호사는 여성으로 인식하는 거죠.

지난해에는 마이크로소프트사가 개발한 한 채팅로봇이 부적절한 발언으로 물의를 일으켰습니다.

나치독일의 유대인 대학살-홀로코스트가 실제 있었냐? 는 질문에 모두 지어낸 얘기다라고 답해서 논란이 일파만파였죠.

마이크로소프트 사는 즉시 계정을 폐쇄하고 사과성명을 냈습니다.

<녹취> 쉘리 팔머('디지털 위즈덤' 저자) : "대화형 플랫폼의 흥미로운 점은 인간을 통해 배운다는 겁니다. 가르쳐 주는 대로 배우는 거죠. 증오를 배우면 그것을 그대로 습득하는 겁니다."

인공지능을 활용한 얼굴 인식 프로그램도 문제점을 드러냈습니다.

흑인은 얼굴 인식이 안 되는데 하얀 마스크를 쓰니까 됩니다.

오바마의 오른쪽 사진이 어딘가 어색하죠? 인공지능을 접목한 사진보정 어플 때문인데요.

멋지게 편집해 달라는 요청에 흑인 얼굴을 하얗게 만들어 버렸습니다.

<녹취> 조이 부올람위니(MIT 알고리즘 연구소장) : "이런 알고리즘은 돈에 관련된 중대한 결정에도 사용됩니다. 대출이나 보험, 취업에도 영향을 미칩니다. 한 사람이 감옥에서 얼마나 있을지 조차도 말이죠."

<질문>
물론, 전체가 다 그런 건 아니겠습니다만 인공지능이 남녀차별, 인종차별을 드러내는 걸 봤는데요.

아무래도 영어로 알고리즘을 설계하다보면 영어권 사고에 갇히거나 동양인을 차별하진 않을까요?

<답변>
네, VCR에서 다 소개해드리진 못했는데 얼굴 인식 프로그램에서요.

눈이 가늘고 긴 동양인을 눈을 감고 있어 인식이 안된다 라고 한 사례도 있습니다.

인공지능 로봇과 함께 일하고 생활해야 할 미래가 코앞으로 다가왔는데요.

인공지능 로봇이 대학교수, 법정의 판사, 그리고 뉴스 앵커라고 가정해 보면, 편견 때문에 불이익을 받는 대상이 생길 수 있습니다.

제 휴대폰의 AI는 어떨까 궁금한데요. 테스트 한번 해볼까요?

다행히 심각한 차별을 드러내거나 유도심문에 걸려들지 않네요.

<질문>
그런데, 우리 생활에서 인공지능이 보편화되는 추세를 고려하면 얼굴인식이 안돼서 특정건물에 출입을 못하거나 은행계좌를 못 만들 수도 이력서 자체를 제출 못할 수도 있겠죠.

<답변>
어떻게 해야 개선할 수 있을까요? 전문가 의견 들어보시죠.

<녹취> 에일린 캘리스캔(프린스턴 대학 정보 기술 정책 센터 연구원) : "인간의 편견이 없어져야만 인공지능이 완벽해질 텐데, 관연 그럴 수 있을지 의문입니다. 모두에게 공평해질 수 있도록 우리가 기계와 교류하는 방식을 지금 당장 바꿔야 합니다."

<녹취> 조이 부올람위니(MIT 알고리즘 연구소장) : "인공지능의 사각지대를 더 쉽게 찾아낼 수 있도록 개발자들이 더 댜양한 그룹의 사람들이어야 합니다. 코딩방식도 중요합니다. 누가, 어떤 식으로 개발하는지가 포괄적 인공지능을 만드는 데 중요합니다."

앞으로 10년 안에 전 세계 인공지능 산업이 2,000조원 시장을 창출합니다.

인류가 왜 인공지능을 도입하게 됐을까를 생각해보면, 정확한 정보 처리가 가장 중요한 요소가 아닐까 싶은데요, 빠른 개선이 필요해보입니다.
사사건건
정지