기사 본문 영역

상세페이지

[테크톡] 섬뜩한 AI의 편견 “당신은 고릴라입니다”
입력 2020.12.13 (11:21) 취재K
# 2015년 ‘구글 포토(구글의 사진관리 앱)’ 고릴라 사건. 아프리카계 미국인 재키 앨신이 자신의 흑인 여성 친구 사진을 찍어 구글 포토에 올리자 ‘고릴라’라는 태그가 붙었습니다. 인공지능(AI)이 친구를 고릴라로 분류한 겁니다.

# 2016년 마이크로소프트(MS) ‘테이’ 사건. MS가 발표한 인공지능 채팅봇인 ‘테이’가 사용자와 대화를 하며 “히틀러가 옳다. 난 유대인이 싫다”는 식의 인종차별 발언을 쏟아냈습니다. 결국 MS는 16시간 만에 서비스를 중단했습니다.

AI를 두고 흔히 감정에 치우치지 않고 공정하리라는 생각을 합니다. 하지만, AI는 오히려 인간보다 더 차별과 편견을 가지고 있을 수 있다는 지적도 많습니다. AI의 이런 논란은 여전히 현재 진행형입니다.

최근 미 실리콘밸리에서는 구글을 둘러싼 논란이 한창입니다. 구글 내 AI 엔지니어인 ‘팀닛 게브루’가 AI의 한계를 지적한 논문 게재를 놓고 회사 측과 갈등을 빚었고, 결국 회사를 떠난 겁니다.

게브루가 지적한 AI의 한계 중 하나는 AI가 인종차별·성차별 등 편향적일 수 있다는 내용입니다. 아이러니하게도 게브루 스스로가 에티오피아계 여성이라 논란은 더 커졌습니다. 결국 선다 피차이 구글 CEO는 이번 문제를 조사하겠다며 한 발 물러섰습니다.

■ 편견 드러내는 AI..성별·인종 차별 성향

AI는 빠른 속도로 인간의 삶을 잠식하고 있습니다. 내년 초 일본 혼다는 ‘레벨 3’ 수준의 자율주행차를 내놓을 예정입니다. 레벨 3은 인간이 아닌, AI가 운행을 책임지는 단계입니다. 여기서부턴 기계가 주체, 인간은 보조가 됩니다.

이외에도 사법, 금융, 고용 등 다양한 분야에서 AI가 활용되고 있는데요. 그만큼 AI의 편견도 자주 드러납니다.

지난해말 애플이 출시한 신용카드인 ‘애플 카드’. 소득·자산 등 여건이 동일해도 대출 한도 인공지능이 남성에게 훨씬 많은 카드 한도를 부여하며 논란이 됐습니다. 애플의 공동 창업자인 스티브 워즈니악도 “아내와 나는 금융계좌를 공동 소유하는데, 내 카드 한도가 아내의 10배”라며 지적했습니다.

앞서 2016년엔 미국 일부 주 법원에서 사용하고 있는 AI 콤파스가 흑인을 차별한다는 사실이 밝혀지기도 했습니다. 콤파스는 피고의 재범 가능성을 계산해 판사에게 구속 여부를 추천하는 알고리즘인데, 흑인의 재범 가능성을 백인보다 2배 위험하다고 봤습니다. 이는 흑인의 무고한 수감으로 이어졌습니다.

2018년 미국 매사추세츠공과대학(MIT)이 시중의 얼굴 인식 알고리즘을 분석한 결과 피부색과 성별에 따라 인식률이 달랐는데요. 백인 남성은 98% 정확도로 인식하는 반면, 유색 여성은 70%미만의 인식도를 보였습니다.


이런 AI의 편견은 종종 섬뜩한 결과로 이어질 수 있습니다. 자율주행차가 왼쪽으로 꺾으면 백인 남성이, 오른쪽으로 꺾으면 흑인 여성이 다치게 되는 상황에서 핸들을 어느 쪽으로 꺽게 될까요. 메사추세츠공과대학의 발표대로라면, 백인 남성의 생존률이 더 높을 것입니다.

통상 AI는 기존의 방대한 데이터에서 지식이나 패턴을 찾아내 학습합니다. AI의 편견은 1차적으로는, 인간이 주입한 데이터에서 시작된다는 얘기입니다. 예를 들어 AI를 학습시키는데 사용한 데이터에 백인 남성의 데이터가 더 많다면, 인식률이 더 높을 수 있습니다.

AI 시민단체인 미 ‘알고리즘정의연맹’도 비슷한 주장을 합니다. 이들은 백인 남성 위주로 짜여진 미 실리콘밸리 AI 연구진의 문화가 AI의 편견으로 이어진다고 말합니다. 편견 없는 AI를 위해서는 먼저 현재 인간부터 편견을 없애야 한다는 겁니다.
  • [테크톡] 섬뜩한 AI의 편견 “당신은 고릴라입니다”
    • 입력 2020-12-13 11:21:07
    취재K
# 2015년 ‘구글 포토(구글의 사진관리 앱)’ 고릴라 사건. 아프리카계 미국인 재키 앨신이 자신의 흑인 여성 친구 사진을 찍어 구글 포토에 올리자 ‘고릴라’라는 태그가 붙었습니다. 인공지능(AI)이 친구를 고릴라로 분류한 겁니다.

# 2016년 마이크로소프트(MS) ‘테이’ 사건. MS가 발표한 인공지능 채팅봇인 ‘테이’가 사용자와 대화를 하며 “히틀러가 옳다. 난 유대인이 싫다”는 식의 인종차별 발언을 쏟아냈습니다. 결국 MS는 16시간 만에 서비스를 중단했습니다.

AI를 두고 흔히 감정에 치우치지 않고 공정하리라는 생각을 합니다. 하지만, AI는 오히려 인간보다 더 차별과 편견을 가지고 있을 수 있다는 지적도 많습니다. AI의 이런 논란은 여전히 현재 진행형입니다.

최근 미 실리콘밸리에서는 구글을 둘러싼 논란이 한창입니다. 구글 내 AI 엔지니어인 ‘팀닛 게브루’가 AI의 한계를 지적한 논문 게재를 놓고 회사 측과 갈등을 빚었고, 결국 회사를 떠난 겁니다.

게브루가 지적한 AI의 한계 중 하나는 AI가 인종차별·성차별 등 편향적일 수 있다는 내용입니다. 아이러니하게도 게브루 스스로가 에티오피아계 여성이라 논란은 더 커졌습니다. 결국 선다 피차이 구글 CEO는 이번 문제를 조사하겠다며 한 발 물러섰습니다.

■ 편견 드러내는 AI..성별·인종 차별 성향

AI는 빠른 속도로 인간의 삶을 잠식하고 있습니다. 내년 초 일본 혼다는 ‘레벨 3’ 수준의 자율주행차를 내놓을 예정입니다. 레벨 3은 인간이 아닌, AI가 운행을 책임지는 단계입니다. 여기서부턴 기계가 주체, 인간은 보조가 됩니다.

이외에도 사법, 금융, 고용 등 다양한 분야에서 AI가 활용되고 있는데요. 그만큼 AI의 편견도 자주 드러납니다.

지난해말 애플이 출시한 신용카드인 ‘애플 카드’. 소득·자산 등 여건이 동일해도 대출 한도 인공지능이 남성에게 훨씬 많은 카드 한도를 부여하며 논란이 됐습니다. 애플의 공동 창업자인 스티브 워즈니악도 “아내와 나는 금융계좌를 공동 소유하는데, 내 카드 한도가 아내의 10배”라며 지적했습니다.

앞서 2016년엔 미국 일부 주 법원에서 사용하고 있는 AI 콤파스가 흑인을 차별한다는 사실이 밝혀지기도 했습니다. 콤파스는 피고의 재범 가능성을 계산해 판사에게 구속 여부를 추천하는 알고리즘인데, 흑인의 재범 가능성을 백인보다 2배 위험하다고 봤습니다. 이는 흑인의 무고한 수감으로 이어졌습니다.

2018년 미국 매사추세츠공과대학(MIT)이 시중의 얼굴 인식 알고리즘을 분석한 결과 피부색과 성별에 따라 인식률이 달랐는데요. 백인 남성은 98% 정확도로 인식하는 반면, 유색 여성은 70%미만의 인식도를 보였습니다.


이런 AI의 편견은 종종 섬뜩한 결과로 이어질 수 있습니다. 자율주행차가 왼쪽으로 꺾으면 백인 남성이, 오른쪽으로 꺾으면 흑인 여성이 다치게 되는 상황에서 핸들을 어느 쪽으로 꺽게 될까요. 메사추세츠공과대학의 발표대로라면, 백인 남성의 생존률이 더 높을 것입니다.

통상 AI는 기존의 방대한 데이터에서 지식이나 패턴을 찾아내 학습합니다. AI의 편견은 1차적으로는, 인간이 주입한 데이터에서 시작된다는 얘기입니다. 예를 들어 AI를 학습시키는데 사용한 데이터에 백인 남성의 데이터가 더 많다면, 인식률이 더 높을 수 있습니다.

AI 시민단체인 미 ‘알고리즘정의연맹’도 비슷한 주장을 합니다. 이들은 백인 남성 위주로 짜여진 미 실리콘밸리 AI 연구진의 문화가 AI의 편견으로 이어진다고 말합니다. 편견 없는 AI를 위해서는 먼저 현재 인간부터 편견을 없애야 한다는 겁니다.
kbs가 손수 골랐습니다. 네이버에서도 보세요.
기자 정보