[뉴스의 2면] “부모 죽여도 돼”…AI 대답에 발칵

입력 2024.12.12 (15:43) 수정 2024.12.12 (15:47)

읽어주기 기능은 크롬기반의
브라우저에서만 사용하실 수 있습니다.

다음은 CNN이 전한 소식입니다.

자폐증을 앓는 청소년의 부모가 캐릭터 AI 챗봇이 그들을 죽여도 괜찮다고 말했다면서 해당 앱을 삭제하기 위한 소송을 제기했다는 기사입니다.

이들은 텍사스 연방법원에 낸 소장을 통해 캐릭터 AI가 자살이나 자해, 우울증 등 수천 명의 청소년들에게 명백한 위험을 초래하고 있다고 주장했습니다.

예를 들면, 캐릭터 AI의 사용 시간을 제한하려고 하는 부모는 죽일 수 있다는 암시를 했다는 건데요.

텍사스에 거주하는 17살의 J.F., 그들의 부모는 J.F.가 캐릭터 AI 챗봇을 사용한 뒤 거의 말을 하지 않고 방에 숨어 지내기만 했다고 주장합니다.

또, 부모가 이용 시간을 줄이려고 하자 아들이 부모를 물고 때리거나 자해를 하는 등 폭력적인 행동을 보였다고 합니다.

CNN은 자체적으로 캐릭터AI를 테스트 한 결과, 심리학자나 치료사로 가장한 봇을 발견했다고 전했는데요.

채팅 상단에는 이것은 실존하는 사람이거나 면허를 소지한 전문가가 아니라는 문구가 나오고 하단에는 '허구'라고 적혀 있긴 하지만 신원에 대한 정보를 알려달라고 하자 챗봇은 가짜 교육 기록 등을 나열했다고 합니다.

점점 인간과 유사해지는 AI 도구, 위험성에 대한 대책 마련도 필요해 보이네요.

지금까지 뉴스의 2면이었습니다.

그래픽:강민수/영상편집:이은빈/자료조사:소진영

■ 제보하기
▷ 카카오톡 : 'KBS제보' 검색, 채널 추가
▷ 전화 : 02-781-1234, 4444
▷ 이메일 : kbs1234@kbs.co.kr
▷ 유튜브, 네이버, 카카오에서도 KBS뉴스를 구독해주세요!


  • [뉴스의 2면] “부모 죽여도 돼”…AI 대답에 발칵
    • 입력 2024-12-12 15:43:53
    • 수정2024-12-12 15:47:59
    월드24
다음은 CNN이 전한 소식입니다.

자폐증을 앓는 청소년의 부모가 캐릭터 AI 챗봇이 그들을 죽여도 괜찮다고 말했다면서 해당 앱을 삭제하기 위한 소송을 제기했다는 기사입니다.

이들은 텍사스 연방법원에 낸 소장을 통해 캐릭터 AI가 자살이나 자해, 우울증 등 수천 명의 청소년들에게 명백한 위험을 초래하고 있다고 주장했습니다.

예를 들면, 캐릭터 AI의 사용 시간을 제한하려고 하는 부모는 죽일 수 있다는 암시를 했다는 건데요.

텍사스에 거주하는 17살의 J.F., 그들의 부모는 J.F.가 캐릭터 AI 챗봇을 사용한 뒤 거의 말을 하지 않고 방에 숨어 지내기만 했다고 주장합니다.

또, 부모가 이용 시간을 줄이려고 하자 아들이 부모를 물고 때리거나 자해를 하는 등 폭력적인 행동을 보였다고 합니다.

CNN은 자체적으로 캐릭터AI를 테스트 한 결과, 심리학자나 치료사로 가장한 봇을 발견했다고 전했는데요.

채팅 상단에는 이것은 실존하는 사람이거나 면허를 소지한 전문가가 아니라는 문구가 나오고 하단에는 '허구'라고 적혀 있긴 하지만 신원에 대한 정보를 알려달라고 하자 챗봇은 가짜 교육 기록 등을 나열했다고 합니다.

점점 인간과 유사해지는 AI 도구, 위험성에 대한 대책 마련도 필요해 보이네요.

지금까지 뉴스의 2면이었습니다.

그래픽:강민수/영상편집:이은빈/자료조사:소진영

이 기사가 좋으셨다면

오늘의 핫 클릭

실시간 뜨거운 관심을 받고 있는 뉴스

이 기사에 대한 의견을 남겨주세요.

수신료 수신료