AI 모델 학습 데이터에서 아동 성 착취 이미지 2천장 삭제
입력 2024.08.31 (09:01)
수정 2024.08.31 (09:06)
읽어주기 기능은 크롬기반의
브라우저에서만 사용하실 수 있습니다.
인공지능 AI 훈련에 사용되는 데이터베이스에서 아동을 대상으로 한 딥페이크 성범죄에 사용될 수 있는 이미지들이 대거 삭제됐습니다.
현지시각 30일 AP통신에 따르면 비영리 오픈소스 이미지 데이터베이스인 LAION은 최근 미국 스탠퍼드대를 비롯해 캐나다 및 영국 기관들과 협업해 데이터베이스에서 아동 성 착취 이미지 2천 개 이상을 삭제했습니다.
LAION은 인터넷 공간의 각종 이미지를 분류한 뒤 텍스트를 이미지로 변환해주는 AI에 제공하는 데이터베이스입니다.
앞서 스탠퍼드대는 지난해 12월 LAION에서 최소 천 개 이상의 아동 성 착취 이미지를 발견했다는 보고서를 발표한 바 있습니다.
전문가들은 아동 성 착취 콘텐츠와 당사자의 동의를 받지 않은 음란물을 AI 데이터베이스에서 걸러내고 제거하기 위한 규약을 마련해야 한다고 주장하고 있습니다.
[사진 출처 : 로이터=연합뉴스]
현지시각 30일 AP통신에 따르면 비영리 오픈소스 이미지 데이터베이스인 LAION은 최근 미국 스탠퍼드대를 비롯해 캐나다 및 영국 기관들과 협업해 데이터베이스에서 아동 성 착취 이미지 2천 개 이상을 삭제했습니다.
LAION은 인터넷 공간의 각종 이미지를 분류한 뒤 텍스트를 이미지로 변환해주는 AI에 제공하는 데이터베이스입니다.
앞서 스탠퍼드대는 지난해 12월 LAION에서 최소 천 개 이상의 아동 성 착취 이미지를 발견했다는 보고서를 발표한 바 있습니다.
전문가들은 아동 성 착취 콘텐츠와 당사자의 동의를 받지 않은 음란물을 AI 데이터베이스에서 걸러내고 제거하기 위한 규약을 마련해야 한다고 주장하고 있습니다.
[사진 출처 : 로이터=연합뉴스]
■ 제보하기
▷ 카카오톡 : 'KBS제보' 검색, 채널 추가
▷ 전화 : 02-781-1234, 4444
▷ 이메일 : kbs1234@kbs.co.kr
▷ 유튜브, 네이버, 카카오에서도 KBS뉴스를 구독해주세요!
- AI 모델 학습 데이터에서 아동 성 착취 이미지 2천장 삭제
-
- 입력 2024-08-31 09:00:59
- 수정2024-08-31 09:06:07
인공지능 AI 훈련에 사용되는 데이터베이스에서 아동을 대상으로 한 딥페이크 성범죄에 사용될 수 있는 이미지들이 대거 삭제됐습니다.
현지시각 30일 AP통신에 따르면 비영리 오픈소스 이미지 데이터베이스인 LAION은 최근 미국 스탠퍼드대를 비롯해 캐나다 및 영국 기관들과 협업해 데이터베이스에서 아동 성 착취 이미지 2천 개 이상을 삭제했습니다.
LAION은 인터넷 공간의 각종 이미지를 분류한 뒤 텍스트를 이미지로 변환해주는 AI에 제공하는 데이터베이스입니다.
앞서 스탠퍼드대는 지난해 12월 LAION에서 최소 천 개 이상의 아동 성 착취 이미지를 발견했다는 보고서를 발표한 바 있습니다.
전문가들은 아동 성 착취 콘텐츠와 당사자의 동의를 받지 않은 음란물을 AI 데이터베이스에서 걸러내고 제거하기 위한 규약을 마련해야 한다고 주장하고 있습니다.
[사진 출처 : 로이터=연합뉴스]
현지시각 30일 AP통신에 따르면 비영리 오픈소스 이미지 데이터베이스인 LAION은 최근 미국 스탠퍼드대를 비롯해 캐나다 및 영국 기관들과 협업해 데이터베이스에서 아동 성 착취 이미지 2천 개 이상을 삭제했습니다.
LAION은 인터넷 공간의 각종 이미지를 분류한 뒤 텍스트를 이미지로 변환해주는 AI에 제공하는 데이터베이스입니다.
앞서 스탠퍼드대는 지난해 12월 LAION에서 최소 천 개 이상의 아동 성 착취 이미지를 발견했다는 보고서를 발표한 바 있습니다.
전문가들은 아동 성 착취 콘텐츠와 당사자의 동의를 받지 않은 음란물을 AI 데이터베이스에서 걸러내고 제거하기 위한 규약을 마련해야 한다고 주장하고 있습니다.
[사진 출처 : 로이터=연합뉴스]
이 기사가 좋으셨다면
-
좋아요
0
-
응원해요
0
-
후속 원해요
0
이 기사에 대한 의견을 남겨주세요.