AI 신뢰·안전성 콘퍼런스…‘책임있는 AI’ 이행 현황 공유

입력 2024.11.26 (11:45) 수정 2024.11.26 (11:45)

읽어주기 기능은 크롬기반의
브라우저에서만 사용하실 수 있습니다.

과학기술정보통신부는 오늘(26일) 서울 용산구 피스앤파크컨벤션에서 국내를 대표하는 인공지능(AI) 분야 대기업·스타트업 관계자, 연구자 등 200여 명이 참석한 가운데 ‘AI 신뢰·안전성 콘퍼런스’를 열었습니다.

AI 분야 석학으로 꼽히는 요슈아 벤지오 캐나다 몬트리올대 교수가 녹화 영상으로 한 기조 강연에서 “최첨단 AI 모델의 위험에 대한 효과적인 관리를 위해 각국 국내법-국제협약 간 상호 조화가 필요하다”고 말했습니다.

그는 또 “과학 측면에서 AI 모델의 정렬과 통제가 중요한 이슈로, 정량적으로 측정할 수 있는 AI 모델의 위험 평가, 위험 관리 기술을 확보하기 위한 정부 지원 확대와 AI 안전연구소의 역할이 필요하다”고 강조했습니다.

두 번째 기조 강연에 나선 오혜연 한국과학기술원(KAIST) AI 연구원장은 AI 안전 분야의 새로운 시장 창출과 기업 경쟁력 확보 관점에서 관련 정책의 추진 전략을 소개했습니다.

업계에서는 박규병 튜닙 대표가 ‘AI 안전장치(가드레일)’ 설루션을 활용한 위험 탐지 및 대응 방안을 소개했고, 한국정보통신기술협회(TTA)로부터 국내 AI 모델 첫 인공지능 신뢰성 인증을 받은 김동환 포티투마루 대표가 거대언어모델(LLM) 신뢰·안전성 확보 방안을 발표했습니다.

네이버, 카카오, 삼성전자 등은 지난 5월 책임 있는 AI 개발·활용을 위한 자발적 이행을 약속한 ‘AI 서울 기업 서약’ 이후 관리 방안 수립, 기술 연구, 내부 거버넌스 마련 등 이행 방안을 공유했습니다.

한편, 이날 행사에서는 네이버, SK텔레콤, 업스테이지, 포티투마루 등 국내 AI 기업 4개 사의 AI 모델을 대상으로 진행한 ‘생성형 AI 레드팀 챌린지’에서 찾아낸 잠재적 위험과 취약점이 소개됐습니다.

한국정보통신기술협회는 이들 기업의 AI 모델에 대한 대규모 공격 시도를 분석한 결과 잘못된 정보, 편견 및 차별, 불법 콘텐츠 생성 및 정보 제공 등 7가지 문제 유형이 발견됐다고 밝혔습니다.

과기정통부는 “이 결과를 활용해 생성형 AI 안전 체계를 구축하고 국내 기업이 자사 AI 모델의 잠재적 위험을 사전에 파악해 신뢰·안전성을 확보할 수 있도록 지원할 계획”이라고 밝혔습니다.

[사진 출처 : 연합뉴스 / 과기정통부 제공]

■ 제보하기
▷ 카카오톡 : 'KBS제보' 검색, 채널 추가
▷ 전화 : 02-781-1234, 4444
▷ 이메일 : kbs1234@kbs.co.kr
▷ 유튜브, 네이버, 카카오에서도 KBS뉴스를 구독해주세요!


  • AI 신뢰·안전성 콘퍼런스…‘책임있는 AI’ 이행 현황 공유
    • 입력 2024-11-26 11:45:08
    • 수정2024-11-26 11:45:31
    IT·과학
과학기술정보통신부는 오늘(26일) 서울 용산구 피스앤파크컨벤션에서 국내를 대표하는 인공지능(AI) 분야 대기업·스타트업 관계자, 연구자 등 200여 명이 참석한 가운데 ‘AI 신뢰·안전성 콘퍼런스’를 열었습니다.

AI 분야 석학으로 꼽히는 요슈아 벤지오 캐나다 몬트리올대 교수가 녹화 영상으로 한 기조 강연에서 “최첨단 AI 모델의 위험에 대한 효과적인 관리를 위해 각국 국내법-국제협약 간 상호 조화가 필요하다”고 말했습니다.

그는 또 “과학 측면에서 AI 모델의 정렬과 통제가 중요한 이슈로, 정량적으로 측정할 수 있는 AI 모델의 위험 평가, 위험 관리 기술을 확보하기 위한 정부 지원 확대와 AI 안전연구소의 역할이 필요하다”고 강조했습니다.

두 번째 기조 강연에 나선 오혜연 한국과학기술원(KAIST) AI 연구원장은 AI 안전 분야의 새로운 시장 창출과 기업 경쟁력 확보 관점에서 관련 정책의 추진 전략을 소개했습니다.

업계에서는 박규병 튜닙 대표가 ‘AI 안전장치(가드레일)’ 설루션을 활용한 위험 탐지 및 대응 방안을 소개했고, 한국정보통신기술협회(TTA)로부터 국내 AI 모델 첫 인공지능 신뢰성 인증을 받은 김동환 포티투마루 대표가 거대언어모델(LLM) 신뢰·안전성 확보 방안을 발표했습니다.

네이버, 카카오, 삼성전자 등은 지난 5월 책임 있는 AI 개발·활용을 위한 자발적 이행을 약속한 ‘AI 서울 기업 서약’ 이후 관리 방안 수립, 기술 연구, 내부 거버넌스 마련 등 이행 방안을 공유했습니다.

한편, 이날 행사에서는 네이버, SK텔레콤, 업스테이지, 포티투마루 등 국내 AI 기업 4개 사의 AI 모델을 대상으로 진행한 ‘생성형 AI 레드팀 챌린지’에서 찾아낸 잠재적 위험과 취약점이 소개됐습니다.

한국정보통신기술협회는 이들 기업의 AI 모델에 대한 대규모 공격 시도를 분석한 결과 잘못된 정보, 편견 및 차별, 불법 콘텐츠 생성 및 정보 제공 등 7가지 문제 유형이 발견됐다고 밝혔습니다.

과기정통부는 “이 결과를 활용해 생성형 AI 안전 체계를 구축하고 국내 기업이 자사 AI 모델의 잠재적 위험을 사전에 파악해 신뢰·안전성을 확보할 수 있도록 지원할 계획”이라고 밝혔습니다.

[사진 출처 : 연합뉴스 / 과기정통부 제공]

이 기사가 좋으셨다면

오늘의 핫 클릭

실시간 뜨거운 관심을 받고 있는 뉴스

이 기사에 대한 의견을 남겨주세요.

수신료 수신료

많이 본 뉴스