[앵커]
인공지능, AI의 선두주자 오픈 AI가 새로운 AI 모델을 출시했습니다.
문자를 통해 대화하던 기존 모델과 달리 실시간으로 음성 대화를 할 수 있다는 건데, 시각과 청각으로도 상황을 인식할 수 있어 한층 진보된 모델이라는 게 오픈 AI 측의 설명입니다.
뉴욕에서 박일중 특파원입니다.
[리포트]
한 남성이 휴대전화에 담긴 AI와 대화합니다.
["안녕. 어떻게 지내? (안녕. 잘 지내. 넌 어때?)"]
오픈 AI가 새로 출시한 GPT-4o라는 AI 모델입니다.
기존 GPT는 주로 문자를 통해 질문과 답변이 오갔는데 음성으로 대화를 주고받는 겁니다.
카메라에 담긴 모습을 보고 상황을 추론하기도 합니다.
[AI 목소리 : "조명과 삼각대, 마이크 같은 것을 볼 때 당신은 비디오를 찍으려 하고 있거나 실시간 방송을 하는 것 같아요."]
다른 시연에선 다른 GPT로부터 들은 상황을 반영해 곧바로 노래를 부릅니다.
[AI 목소리 : "세련된 전망이 있는 방에서, 은은한 조명 속에 매끈한 검은 옷을 입은 사람이 서 있어요."]
이렇게 질문에 곧바로 대답하는 시간은 평균 320밀리 초로 인간의 응답시간과 비슷하다고 오픈 AI는 설명했습니다.
답 제공 중에 끼어들어도 대화가 계속 이어질 뿐 아니라 50개 언어에 대한 챗GPT의 품질과 속도가 향상됐다고도 밝혔습니다.
[미라 무라티/오픈 AI 최고 기술 책임자 : "지금까지 꽤 괜찮았어요. 그런데 사용 편의성이라는 측면에선 이번이 진정한 첫 번째 큰 진전입니다."]
오픈 AI는 이번 버전은 무료 사용자를 포함해 모두에게 무료로 제공된다고 밝혔습니다.
뉴욕에서 KBS 뉴스 박일중입니다.
영상편집:김은주/자료조사:최유나 서호정