‘AI 대부’ “현재 AI는 새끼 호랑이…통제권 잃을 수도”
입력 2025.04.27 (13:40)
수정 2025.04.27 (14:06)
읽어주기 기능은 크롬기반의
브라우저에서만 사용하실 수 있습니다.

지난해 노벨 물리학상을 수상한 ‘AI 대부’ 제프리 힌턴 캐나다 토론토대 교수가 현재의 AI는 마치 ‘새끼 호랑이’와 같다면서 위험성을 재차 경고했습니다.
힌턴 교수는 현지 시각 26일 방송된 미국 CBS와의 인터뷰에서 AI 기술의 급속한 발전이 인류를 위협할 수도 있다고 우려했습니다.
AI 학습에 필요한 핵심 기술인 대형언어모델(LLM) 개발에 선구적 역할을 한 힌턴 교수는 AI의 위험성을 여러 차례 공개 경고해 왔습니다.
힌턴 교수는 인터뷰에서 현재 AI 기술을 누리는 인류의 상황을 “우리가 굉장히 귀여운 호랑이 새끼를 가진 사람이라고 생각하는 것”이라며, “이 새끼가 나중에 자라서 당신을 죽이지 않을 것이라는 것을 분명히 확신할 수 없다면, 당신은 걱정해야 한다”고 말했습니다.
이어 인공지능이 결과적으로 인류로부터 통제권을 가져갈 위험이 10~20% 존재한다면서 “사람들은 이를 아직 이해하지 못하고 있으며, 무엇이 다가오고 있는지 이해하지 못한다”고 덧붙였습니다.
힌턴 교수는 자신이 몸담았던 구글을 비롯해 머스크의 xAI나 오픈AI 등도 이런 우려를 인지하고 있다면서, 이들이 안전보다 수익을 우선시하고 있다고 비판했습니다.
힌턴 교수는 ‘빅테크’ AI 기업들이 AI 안전성 연구에 투자하는 자원과 역량 비중을 대폭 확대해야 한다면서, 컴퓨팅 에너지의 1/3을 안전성 연구에 쏟아부어야 한다고 강조했습니다.
[사진 출처 : 연합뉴스]
힌턴 교수는 현지 시각 26일 방송된 미국 CBS와의 인터뷰에서 AI 기술의 급속한 발전이 인류를 위협할 수도 있다고 우려했습니다.
AI 학습에 필요한 핵심 기술인 대형언어모델(LLM) 개발에 선구적 역할을 한 힌턴 교수는 AI의 위험성을 여러 차례 공개 경고해 왔습니다.
힌턴 교수는 인터뷰에서 현재 AI 기술을 누리는 인류의 상황을 “우리가 굉장히 귀여운 호랑이 새끼를 가진 사람이라고 생각하는 것”이라며, “이 새끼가 나중에 자라서 당신을 죽이지 않을 것이라는 것을 분명히 확신할 수 없다면, 당신은 걱정해야 한다”고 말했습니다.
이어 인공지능이 결과적으로 인류로부터 통제권을 가져갈 위험이 10~20% 존재한다면서 “사람들은 이를 아직 이해하지 못하고 있으며, 무엇이 다가오고 있는지 이해하지 못한다”고 덧붙였습니다.
힌턴 교수는 자신이 몸담았던 구글을 비롯해 머스크의 xAI나 오픈AI 등도 이런 우려를 인지하고 있다면서, 이들이 안전보다 수익을 우선시하고 있다고 비판했습니다.
힌턴 교수는 ‘빅테크’ AI 기업들이 AI 안전성 연구에 투자하는 자원과 역량 비중을 대폭 확대해야 한다면서, 컴퓨팅 에너지의 1/3을 안전성 연구에 쏟아부어야 한다고 강조했습니다.
[사진 출처 : 연합뉴스]
■ 제보하기
▷ 카카오톡 : 'KBS제보' 검색, 채널 추가
▷ 전화 : 02-781-1234, 4444
▷ 이메일 : kbs1234@kbs.co.kr
▷ 유튜브, 네이버, 카카오에서도 KBS뉴스를 구독해주세요!
- ‘AI 대부’ “현재 AI는 새끼 호랑이…통제권 잃을 수도”
-
- 입력 2025-04-27 13:40:07
- 수정2025-04-27 14:06:26

지난해 노벨 물리학상을 수상한 ‘AI 대부’ 제프리 힌턴 캐나다 토론토대 교수가 현재의 AI는 마치 ‘새끼 호랑이’와 같다면서 위험성을 재차 경고했습니다.
힌턴 교수는 현지 시각 26일 방송된 미국 CBS와의 인터뷰에서 AI 기술의 급속한 발전이 인류를 위협할 수도 있다고 우려했습니다.
AI 학습에 필요한 핵심 기술인 대형언어모델(LLM) 개발에 선구적 역할을 한 힌턴 교수는 AI의 위험성을 여러 차례 공개 경고해 왔습니다.
힌턴 교수는 인터뷰에서 현재 AI 기술을 누리는 인류의 상황을 “우리가 굉장히 귀여운 호랑이 새끼를 가진 사람이라고 생각하는 것”이라며, “이 새끼가 나중에 자라서 당신을 죽이지 않을 것이라는 것을 분명히 확신할 수 없다면, 당신은 걱정해야 한다”고 말했습니다.
이어 인공지능이 결과적으로 인류로부터 통제권을 가져갈 위험이 10~20% 존재한다면서 “사람들은 이를 아직 이해하지 못하고 있으며, 무엇이 다가오고 있는지 이해하지 못한다”고 덧붙였습니다.
힌턴 교수는 자신이 몸담았던 구글을 비롯해 머스크의 xAI나 오픈AI 등도 이런 우려를 인지하고 있다면서, 이들이 안전보다 수익을 우선시하고 있다고 비판했습니다.
힌턴 교수는 ‘빅테크’ AI 기업들이 AI 안전성 연구에 투자하는 자원과 역량 비중을 대폭 확대해야 한다면서, 컴퓨팅 에너지의 1/3을 안전성 연구에 쏟아부어야 한다고 강조했습니다.
[사진 출처 : 연합뉴스]
힌턴 교수는 현지 시각 26일 방송된 미국 CBS와의 인터뷰에서 AI 기술의 급속한 발전이 인류를 위협할 수도 있다고 우려했습니다.
AI 학습에 필요한 핵심 기술인 대형언어모델(LLM) 개발에 선구적 역할을 한 힌턴 교수는 AI의 위험성을 여러 차례 공개 경고해 왔습니다.
힌턴 교수는 인터뷰에서 현재 AI 기술을 누리는 인류의 상황을 “우리가 굉장히 귀여운 호랑이 새끼를 가진 사람이라고 생각하는 것”이라며, “이 새끼가 나중에 자라서 당신을 죽이지 않을 것이라는 것을 분명히 확신할 수 없다면, 당신은 걱정해야 한다”고 말했습니다.
이어 인공지능이 결과적으로 인류로부터 통제권을 가져갈 위험이 10~20% 존재한다면서 “사람들은 이를 아직 이해하지 못하고 있으며, 무엇이 다가오고 있는지 이해하지 못한다”고 덧붙였습니다.
힌턴 교수는 자신이 몸담았던 구글을 비롯해 머스크의 xAI나 오픈AI 등도 이런 우려를 인지하고 있다면서, 이들이 안전보다 수익을 우선시하고 있다고 비판했습니다.
힌턴 교수는 ‘빅테크’ AI 기업들이 AI 안전성 연구에 투자하는 자원과 역량 비중을 대폭 확대해야 한다면서, 컴퓨팅 에너지의 1/3을 안전성 연구에 쏟아부어야 한다고 강조했습니다.
[사진 출처 : 연합뉴스]
-
-
조태흠 기자 jotem@kbs.co.kr
조태흠 기자의 기사 모음
-
이 기사가 좋으셨다면
-
좋아요
0
-
응원해요
0
-
후속 원해요
0
이 기사에 대한 의견을 남겨주세요.