AI 모델 학습 데이터에서 아동 성 착취 이미지 2천장 삭제

입력 2024.08.31 (09:01) 수정 2024.08.31 (09:06)

읽어주기 기능은 크롬기반의
브라우저에서만 사용하실 수 있습니다.

인공지능 AI 훈련에 사용되는 데이터베이스에서 아동을 대상으로 한 딥페이크 성범죄에 사용될 수 있는 이미지들이 대거 삭제됐습니다.

현지시각 30일 AP통신에 따르면 비영리 오픈소스 이미지 데이터베이스인 LAION은 최근 미국 스탠퍼드대를 비롯해 캐나다 및 영국 기관들과 협업해 데이터베이스에서 아동 성 착취 이미지 2천 개 이상을 삭제했습니다.

LAION은 인터넷 공간의 각종 이미지를 분류한 뒤 텍스트를 이미지로 변환해주는 AI에 제공하는 데이터베이스입니다.

앞서 스탠퍼드대는 지난해 12월 LAION에서 최소 천 개 이상의 아동 성 착취 이미지를 발견했다는 보고서를 발표한 바 있습니다.

전문가들은 아동 성 착취 콘텐츠와 당사자의 동의를 받지 않은 음란물을 AI 데이터베이스에서 걸러내고 제거하기 위한 규약을 마련해야 한다고 주장하고 있습니다.

[사진 출처 : 로이터=연합뉴스]

■ 제보하기
▷ 카카오톡 : 'KBS제보' 검색, 채널 추가
▷ 전화 : 02-781-1234, 4444
▷ 이메일 : kbs1234@kbs.co.kr
▷ 유튜브, 네이버, 카카오에서도 KBS뉴스를 구독해주세요!


  • AI 모델 학습 데이터에서 아동 성 착취 이미지 2천장 삭제
    • 입력 2024-08-31 09:00:59
    • 수정2024-08-31 09:06:07
    국제
인공지능 AI 훈련에 사용되는 데이터베이스에서 아동을 대상으로 한 딥페이크 성범죄에 사용될 수 있는 이미지들이 대거 삭제됐습니다.

현지시각 30일 AP통신에 따르면 비영리 오픈소스 이미지 데이터베이스인 LAION은 최근 미국 스탠퍼드대를 비롯해 캐나다 및 영국 기관들과 협업해 데이터베이스에서 아동 성 착취 이미지 2천 개 이상을 삭제했습니다.

LAION은 인터넷 공간의 각종 이미지를 분류한 뒤 텍스트를 이미지로 변환해주는 AI에 제공하는 데이터베이스입니다.

앞서 스탠퍼드대는 지난해 12월 LAION에서 최소 천 개 이상의 아동 성 착취 이미지를 발견했다는 보고서를 발표한 바 있습니다.

전문가들은 아동 성 착취 콘텐츠와 당사자의 동의를 받지 않은 음란물을 AI 데이터베이스에서 걸러내고 제거하기 위한 규약을 마련해야 한다고 주장하고 있습니다.

[사진 출처 : 로이터=연합뉴스]

이 기사가 좋으셨다면

오늘의 핫 클릭

실시간 뜨거운 관심을 받고 있는 뉴스

이 기사에 대한 의견을 남겨주세요.

수신료 수신료