AI, ‘보고 듣고 말하는’ 능력까지…GPT-4o 출시

입력 2024.05.14 (07:12)

수정 2024.05.14 (07:37)

[앵커]

인공지능, AI의 선두주자 오픈 AI가 새로운 AI 모델을 출시했습니다.

문자를 통해 대화하던 기존 모델과 달리 실시간으로 음성 대화를 할 수 있다는 건데, 시각과 청각으로도 상황을 인식할 수 있어 한층 진보된 모델이라는 게 오픈 AI 측의 설명입니다.

뉴욕에서 박일중 특파원입니다.

[리포트]

한 남성이 휴대전화에 담긴 AI와 대화합니다.

["(안녕. 어떻게 지내?) 안녕. 잘 지내. 넌 어때?"]

오픈 AI가 새로 출시한 GPT-4o라는 AI 모델입니다.

기존 GPT는 주로 문자를 통해 질문과 답변이 오갔는데 음성으로 대화를 주고받는 겁니다.

카메라에 담긴 모습을 보고 상황을 추론하기도 합니다.

[AI 목소리 : "조명과 삼각대, 마이크 같은 것을 볼 때 당신은 비디오를 찍으려 하고 있거나 실시간 방송을 하는 것 같아요."]

다른 시연에선 다른 GPT로부터 들은 상황을 반영해 곧바로 노래를 부릅니다.

[AI 목소리 : "세련된 전망이 있는 방에서, 은은한 조명 속에 매끈한 검은 옷을 입은 사람이 서 있어요."]

이렇게 질문에 곧바로 대답하는 시간은 평균 320밀리 초로 인간의 응답시간과 비슷하다고 오픈 AI는 설명했습니다.

답 제공 중에 끼어들어도 대화가 계속 이어질 뿐 아니라 50개 언어에 대한 챗GPT의 품질과 속도가 향상됐다고도 밝혔습니다.

[미라 무라티/오픈AI 최고 기술 책임자 : "지금까지 꽤 괜찮았어요. 그런데 사용 편의성이라는 측면에선 이번이 진정한 첫 번째 큰 진전입니다."]

오픈 AI는 이번 버전은 무료 사용자를 포함해 모두에게 무료로 제공된다고 밝혔습니다.

뉴욕에서 KBS 뉴스 박일중입니다.

영상편집:김은주/자료조사:최유나 서호정

■ 제보하기
▷ 카카오톡 : 'KBS제보' 검색, 채널 추가
▷ 전화 : 02-781-1234, 4444
▷ 이메일 : kbs1234@kbs.co.kr
▷ 유튜브, 네이버, 카카오에서도 KBS뉴스를 구독해주세요!


KBS 뉴스 이미지

이 기사가 좋으셨다면

이 기사에 대한 의견을 남겨주세요.