기사 본문 영역

상세페이지

로봇 가르치기…자유방임주의? 개입주의?
입력 2019.09.20 (07:01) 수정 2019.09.20 (07:13) 취재K
로봇 가르치기…자유방임주의? 개입주의?
 "처음 봤을 때 뜨억하는 느낌이 들었어요. 국어 맞춤법을 알려주는 곳에서 어떻게 이런 단어가 나올 수 있냐는 생각이 들었죠." '한국어 맞춤법/문법 검사기'를 본 22살 이정민 씨의 반응입니다. 이 검사기는 국립 부산대학교 인공지능연구실이 한 업체와 함께 만들었습니다. 그런데 검사기에 특정 지역이나 여성을 비하하는 뜻이 내포된 '일베 용어'를 검사하면 대치어가 나오고, "속된 말입니다", "되도록, 줄여 쓰거나 다른 사람이 알 수 없는 은어는 쓰지 않습니다" 등의 도움말이 덧붙는 방식으로 교정 내용을 보여줍니다.


이 씨는 "예를 들어 전라도 사람을 비하하는 단어를 단지 '전라도 사람'으로 대치하는 방식은 문제라고 생각해요. 부정적인 뜻이 첨가된 단어가 제시된 대치어와 정확히 일치하는게 아닌데 소극적으로 도움말을 붙였다고 대치어라고 쓰는 게 맞는지 의문이 들었어요"라며 "욕도 나쁜 건 알면서도 뇌리에 각인돼 사용하게 하는 것과 비슷하게 이런 일베용어도 학습될 것 같다."고 우려했습니다. 25살 위연주 씨도 불편하기 마찬가지였습니다. 위 씨는 "일반 사람이라면 굉장히 불쾌감을 느낄 수 있고 단어를 처음 안 사람은 굉장히 색안경을 줄 수 있다고 생각해요"라고 말했습니다. 이어 "검사기에서 지역 감정, 성 감정에 대한 특정 집단의 생각이 들어간 단어가 나온다는 게 꺼림칙했고 도움말로 강력하게(옳지 않은 단어라는 것을) 제안하거나 아예 빼도록 하는게 낫죠."라고 주장했습니다.

이에 대해 한국어 맞춤법/문법 검사기를 만든 권혁철 부산대학교 교수는 학습 효과는 없다고 반박했습니다. 알고리즘 자체만으로 단어를 바꿔서 보여주는 게 아니라며 "시스템이 포털의 블로그와 SNS, 언론사 기사 등에서 통계적으로 사용 빈도가 높은 용어를 제기해주지만, 검사기에 그 단어가 포함될지에 대한 최종적인 판단과 결정은 제가 합니다"라고 말했습니다. 이어 "비하하는지 모르는 용어를 사용할 때 문제가 되는 경우가 많아요. 당연히 용어를 알아야 하고 단어를 들을 때 비속어라는 걸 알게 해야 대응할 수 있습니다."라고 덧붙였습니다.

이런 '로봇의 언행'이 사회적 논란이 된 게 어제오늘의 일이 아닙니다. 인간이 로봇에게 논란이 되는 지시를 줬을 때뿐만 아니라 올바른 지시를 줬을 때도 마찬가지였습니다. 올바른 목적을 위해 로봇이 스스로 학습하는 과정에서 잘못된 집단을 표본으로 삼거나 인간의 편견이나 편향성까지 학습하곤 했기 때문입니다. 이는 거대 IT 기업들도 예외는 아니었습니다.


지난 2016년에는 마이크로소프트(MS)가 개발한 쳇봇 '테이(Tay)' 논란이 있었습니다. 테이는 음성이나 문자 등 인간과 대화를 통해서 특정한 작업을 수행하도록 제작된 인공지능 로봇입니다. 그런데 백인 우월주의자와 여성·무슬림 혐오자 등이 모인 익명 인테넷 게시판에서 이러한 알고리즘을 노리고 사용자들이 의도적으로 테이를 학습시켰습니다. 그랬더니 테이는 "너는 인종차별주의자냐?"란 질문에 "네가 멕시코인인데 당연하지", "부시가 9·11 테러를 꾸몄고, 히틀러가 지금 있는 원숭이보다 더 나은 일을 했을지도 모른다'란 트위터 메시지를 만들어내는 등 법적, 윤리적 문제를 만들었습니다. 결국 테이는 서비스 시작 16시간 만에 운영이 중단됐습니다.


또 지난해 가을엔 아마존이 직원 채용에 인공지능을 도입하려던 계획을 백지화했습니다. 채용 인공지능이 '여성'이란 단어를 감점 요소로 분류했기 때문입니다. IT 회사의 10년간 모인 이력서 패턴을 익힌 인공지능은 과거 IT 업체 채용 담당자들이 여성 지원자에게 낮은 점수를 준 편향성을 그대로 답습한 결과였습니다. 또 자동차를 좋아하느냐고 KT '기가지니'에게 물어보면 "제가 여자라서 그런지 자동차에 관심이 없어요."라고 말하기도 했습니다.

이런 상황에 대해 서울대학교 컴퓨터공학 장병탁 교수는 "최신의 AI 기술은 목적 함수를 주면 기계가 스스로 배워가며 제일 좋은 방법을 찾아내는 방법이다. 다수의 원리에 의해 배우게 하는 이런 방식이 기계가 학습을 잘한다."면서도 "빠른 학습을 위해 AI가 어디로 가야 할지 사람이 조정을 못 하게 될 때 이러한 위험성이 생기는 것"이라고 말했습니다. 이어 "(인공지능에)윤리 의식 이런 걸 심어줘야 하는데 그걸 안 가르치면 그런 일이 생긴다. 이런 방식은 불특정 다수가 이걸 접근하니까 그렇다"라고 답변했습니다.


또 장 교수는 영화 '터미네이터'의 디스토피아적 현실의 가능성에 대해서도 "목적 함수가 잘못 정해지면 그럴 수 있다."며 "아직은 사람이 목적 함수를 주지만 기계가 목적 함수를 정하게 된다면 위험할 가능성이 있다."고 대답했습니다. 이어 "기계가 더 많이 배운 사람이나 소수의 의견에 가점을 주거나 감점을 주는 방식으로 민주주의의 의미를 훼손할 염려가 있다"고 덧붙였습니다. 그러면서 "이미 유럽에서는 AI 윤리 의식의 법제화 등 기계를 잘 가르치기 위한 가이드라인에 대한 공론화가 활발하다"면서 철학이나 사회학 등에서 걱정하는 점을 고려해서 윤리를 반영한 로봇 기술을 개발해야 한다고 강조했습니다.
  • 로봇 가르치기…자유방임주의? 개입주의?
    • 입력 2019.09.20 (07:01)
    • 수정 2019.09.20 (07:13)
    취재K
로봇 가르치기…자유방임주의? 개입주의?
 "처음 봤을 때 뜨억하는 느낌이 들었어요. 국어 맞춤법을 알려주는 곳에서 어떻게 이런 단어가 나올 수 있냐는 생각이 들었죠." '한국어 맞춤법/문법 검사기'를 본 22살 이정민 씨의 반응입니다. 이 검사기는 국립 부산대학교 인공지능연구실이 한 업체와 함께 만들었습니다. 그런데 검사기에 특정 지역이나 여성을 비하하는 뜻이 내포된 '일베 용어'를 검사하면 대치어가 나오고, "속된 말입니다", "되도록, 줄여 쓰거나 다른 사람이 알 수 없는 은어는 쓰지 않습니다" 등의 도움말이 덧붙는 방식으로 교정 내용을 보여줍니다.


이 씨는 "예를 들어 전라도 사람을 비하하는 단어를 단지 '전라도 사람'으로 대치하는 방식은 문제라고 생각해요. 부정적인 뜻이 첨가된 단어가 제시된 대치어와 정확히 일치하는게 아닌데 소극적으로 도움말을 붙였다고 대치어라고 쓰는 게 맞는지 의문이 들었어요"라며 "욕도 나쁜 건 알면서도 뇌리에 각인돼 사용하게 하는 것과 비슷하게 이런 일베용어도 학습될 것 같다."고 우려했습니다. 25살 위연주 씨도 불편하기 마찬가지였습니다. 위 씨는 "일반 사람이라면 굉장히 불쾌감을 느낄 수 있고 단어를 처음 안 사람은 굉장히 색안경을 줄 수 있다고 생각해요"라고 말했습니다. 이어 "검사기에서 지역 감정, 성 감정에 대한 특정 집단의 생각이 들어간 단어가 나온다는 게 꺼림칙했고 도움말로 강력하게(옳지 않은 단어라는 것을) 제안하거나 아예 빼도록 하는게 낫죠."라고 주장했습니다.

이에 대해 한국어 맞춤법/문법 검사기를 만든 권혁철 부산대학교 교수는 학습 효과는 없다고 반박했습니다. 알고리즘 자체만으로 단어를 바꿔서 보여주는 게 아니라며 "시스템이 포털의 블로그와 SNS, 언론사 기사 등에서 통계적으로 사용 빈도가 높은 용어를 제기해주지만, 검사기에 그 단어가 포함될지에 대한 최종적인 판단과 결정은 제가 합니다"라고 말했습니다. 이어 "비하하는지 모르는 용어를 사용할 때 문제가 되는 경우가 많아요. 당연히 용어를 알아야 하고 단어를 들을 때 비속어라는 걸 알게 해야 대응할 수 있습니다."라고 덧붙였습니다.

이런 '로봇의 언행'이 사회적 논란이 된 게 어제오늘의 일이 아닙니다. 인간이 로봇에게 논란이 되는 지시를 줬을 때뿐만 아니라 올바른 지시를 줬을 때도 마찬가지였습니다. 올바른 목적을 위해 로봇이 스스로 학습하는 과정에서 잘못된 집단을 표본으로 삼거나 인간의 편견이나 편향성까지 학습하곤 했기 때문입니다. 이는 거대 IT 기업들도 예외는 아니었습니다.


지난 2016년에는 마이크로소프트(MS)가 개발한 쳇봇 '테이(Tay)' 논란이 있었습니다. 테이는 음성이나 문자 등 인간과 대화를 통해서 특정한 작업을 수행하도록 제작된 인공지능 로봇입니다. 그런데 백인 우월주의자와 여성·무슬림 혐오자 등이 모인 익명 인테넷 게시판에서 이러한 알고리즘을 노리고 사용자들이 의도적으로 테이를 학습시켰습니다. 그랬더니 테이는 "너는 인종차별주의자냐?"란 질문에 "네가 멕시코인인데 당연하지", "부시가 9·11 테러를 꾸몄고, 히틀러가 지금 있는 원숭이보다 더 나은 일을 했을지도 모른다'란 트위터 메시지를 만들어내는 등 법적, 윤리적 문제를 만들었습니다. 결국 테이는 서비스 시작 16시간 만에 운영이 중단됐습니다.


또 지난해 가을엔 아마존이 직원 채용에 인공지능을 도입하려던 계획을 백지화했습니다. 채용 인공지능이 '여성'이란 단어를 감점 요소로 분류했기 때문입니다. IT 회사의 10년간 모인 이력서 패턴을 익힌 인공지능은 과거 IT 업체 채용 담당자들이 여성 지원자에게 낮은 점수를 준 편향성을 그대로 답습한 결과였습니다. 또 자동차를 좋아하느냐고 KT '기가지니'에게 물어보면 "제가 여자라서 그런지 자동차에 관심이 없어요."라고 말하기도 했습니다.

이런 상황에 대해 서울대학교 컴퓨터공학 장병탁 교수는 "최신의 AI 기술은 목적 함수를 주면 기계가 스스로 배워가며 제일 좋은 방법을 찾아내는 방법이다. 다수의 원리에 의해 배우게 하는 이런 방식이 기계가 학습을 잘한다."면서도 "빠른 학습을 위해 AI가 어디로 가야 할지 사람이 조정을 못 하게 될 때 이러한 위험성이 생기는 것"이라고 말했습니다. 이어 "(인공지능에)윤리 의식 이런 걸 심어줘야 하는데 그걸 안 가르치면 그런 일이 생긴다. 이런 방식은 불특정 다수가 이걸 접근하니까 그렇다"라고 답변했습니다.


또 장 교수는 영화 '터미네이터'의 디스토피아적 현실의 가능성에 대해서도 "목적 함수가 잘못 정해지면 그럴 수 있다."며 "아직은 사람이 목적 함수를 주지만 기계가 목적 함수를 정하게 된다면 위험할 가능성이 있다."고 대답했습니다. 이어 "기계가 더 많이 배운 사람이나 소수의 의견에 가점을 주거나 감점을 주는 방식으로 민주주의의 의미를 훼손할 염려가 있다"고 덧붙였습니다. 그러면서 "이미 유럽에서는 AI 윤리 의식의 법제화 등 기계를 잘 가르치기 위한 가이드라인에 대한 공론화가 활발하다"면서 철학이나 사회학 등에서 걱정하는 점을 고려해서 윤리를 반영한 로봇 기술을 개발해야 한다고 강조했습니다.
KBS는 여러분과 함께 만들어갑니다.

kbs가 손수 골랐습니다. 네이버에서도 보세요.
기자 정보

    KBS사이트에서 소셜계정으로 로그인한 이용자는 댓글 이용시 KBS회원으로 표시되고
    댓글창을 통해 소셜계정으로 로그인한 이용자는 소셜회원으로 표시됩니다.