AI, ‘보고 듣고 말하는’ 능력까지…GPT-4o 출시
입력 2024.05.14 (09:45)
수정 2024.05.14 (09:47)
읽어주기 기능은 크롬기반의
브라우저에서만 사용하실 수 있습니다.
[앵커]
인공지능, AI의 선두주자 오픈 AI가 새로운 AI 모델을 출시했습니다.
문자를 통해 대화하던 기존 모델과 달리 실시간으로 음성 대화를 할 수 있다는 건데, 시각과 청각으로도 상황을 인식할 수 있어 한층 진보된 모델이라는 게 오픈 AI 측의 설명입니다.
뉴욕에서 박일중 특파원입니다.
[리포트]
한 남성이 휴대전화에 담긴 AI와 대화합니다.
["(안녕. 어떻게 지내?) 안녕. 잘 지내. 넌 어때?"]
오픈 AI가 새로 출시한 GPT-4o라는 AI 모델입니다.
기존 GPT는 주로 문자를 통해 질문과 답변이 오갔는데 음성으로 대화를 주고받는 겁니다.
카메라에 담긴 모습을 보고 상황을 추론하기도 합니다.
[AI 목소리 : "조명과 삼각대, 마이크 같은 것을 볼 때 당신은 비디오를 찍으려 하고 있거나 실시간 방송을 하는 것 같아요."]
다른 시연에선 다른 GPT로부터 들은 상황을 반영해 곧바로 노래를 부릅니다.
[AI 목소리 : "세련된 전망이 있는 방에서, 은은한 조명 속에 매끈한 검은 옷을 입은 사람이 서 있어요."]
이렇게 질문에 곧바로 대답하는 시간은 평균 320밀리 초로 인간의 응답시간과 비슷하다고 오픈 AI는 설명했습니다.
답 제공 중에 끼어들어도 대화가 계속 이어질 뿐 아니라 50개 언어에 대한 챗GPT의 품질과 속도가 향상됐다고도 밝혔습니다.
[미라 무라티/오픈AI 최고 기술 책임자 : "지금까지 꽤 괜찮았어요. 그런데 사용 편의성이라는 측면에선 이번이 진정한 첫 번째 큰 진전입니다."]
오픈 AI는 이번 버전은 무료 사용자를 포함해 모두에게 무료로 제공된다고 밝혔습니다.
뉴욕에서 KBS 뉴스 박일중입니다.
영상편집:김은주/자료조사:최유나 서호정
인공지능, AI의 선두주자 오픈 AI가 새로운 AI 모델을 출시했습니다.
문자를 통해 대화하던 기존 모델과 달리 실시간으로 음성 대화를 할 수 있다는 건데, 시각과 청각으로도 상황을 인식할 수 있어 한층 진보된 모델이라는 게 오픈 AI 측의 설명입니다.
뉴욕에서 박일중 특파원입니다.
[리포트]
한 남성이 휴대전화에 담긴 AI와 대화합니다.
["(안녕. 어떻게 지내?) 안녕. 잘 지내. 넌 어때?"]
오픈 AI가 새로 출시한 GPT-4o라는 AI 모델입니다.
기존 GPT는 주로 문자를 통해 질문과 답변이 오갔는데 음성으로 대화를 주고받는 겁니다.
카메라에 담긴 모습을 보고 상황을 추론하기도 합니다.
[AI 목소리 : "조명과 삼각대, 마이크 같은 것을 볼 때 당신은 비디오를 찍으려 하고 있거나 실시간 방송을 하는 것 같아요."]
다른 시연에선 다른 GPT로부터 들은 상황을 반영해 곧바로 노래를 부릅니다.
[AI 목소리 : "세련된 전망이 있는 방에서, 은은한 조명 속에 매끈한 검은 옷을 입은 사람이 서 있어요."]
이렇게 질문에 곧바로 대답하는 시간은 평균 320밀리 초로 인간의 응답시간과 비슷하다고 오픈 AI는 설명했습니다.
답 제공 중에 끼어들어도 대화가 계속 이어질 뿐 아니라 50개 언어에 대한 챗GPT의 품질과 속도가 향상됐다고도 밝혔습니다.
[미라 무라티/오픈AI 최고 기술 책임자 : "지금까지 꽤 괜찮았어요. 그런데 사용 편의성이라는 측면에선 이번이 진정한 첫 번째 큰 진전입니다."]
오픈 AI는 이번 버전은 무료 사용자를 포함해 모두에게 무료로 제공된다고 밝혔습니다.
뉴욕에서 KBS 뉴스 박일중입니다.
영상편집:김은주/자료조사:최유나 서호정
■ 제보하기
▷ 카카오톡 : 'KBS제보' 검색, 채널 추가
▷ 전화 : 02-781-1234, 4444
▷ 이메일 : kbs1234@kbs.co.kr
▷ 유튜브, 네이버, 카카오에서도 KBS뉴스를 구독해주세요!
- AI, ‘보고 듣고 말하는’ 능력까지…GPT-4o 출시
-
- 입력 2024-05-14 09:45:07
- 수정2024-05-14 09:47:04
[앵커]
인공지능, AI의 선두주자 오픈 AI가 새로운 AI 모델을 출시했습니다.
문자를 통해 대화하던 기존 모델과 달리 실시간으로 음성 대화를 할 수 있다는 건데, 시각과 청각으로도 상황을 인식할 수 있어 한층 진보된 모델이라는 게 오픈 AI 측의 설명입니다.
뉴욕에서 박일중 특파원입니다.
[리포트]
한 남성이 휴대전화에 담긴 AI와 대화합니다.
["(안녕. 어떻게 지내?) 안녕. 잘 지내. 넌 어때?"]
오픈 AI가 새로 출시한 GPT-4o라는 AI 모델입니다.
기존 GPT는 주로 문자를 통해 질문과 답변이 오갔는데 음성으로 대화를 주고받는 겁니다.
카메라에 담긴 모습을 보고 상황을 추론하기도 합니다.
[AI 목소리 : "조명과 삼각대, 마이크 같은 것을 볼 때 당신은 비디오를 찍으려 하고 있거나 실시간 방송을 하는 것 같아요."]
다른 시연에선 다른 GPT로부터 들은 상황을 반영해 곧바로 노래를 부릅니다.
[AI 목소리 : "세련된 전망이 있는 방에서, 은은한 조명 속에 매끈한 검은 옷을 입은 사람이 서 있어요."]
이렇게 질문에 곧바로 대답하는 시간은 평균 320밀리 초로 인간의 응답시간과 비슷하다고 오픈 AI는 설명했습니다.
답 제공 중에 끼어들어도 대화가 계속 이어질 뿐 아니라 50개 언어에 대한 챗GPT의 품질과 속도가 향상됐다고도 밝혔습니다.
[미라 무라티/오픈AI 최고 기술 책임자 : "지금까지 꽤 괜찮았어요. 그런데 사용 편의성이라는 측면에선 이번이 진정한 첫 번째 큰 진전입니다."]
오픈 AI는 이번 버전은 무료 사용자를 포함해 모두에게 무료로 제공된다고 밝혔습니다.
뉴욕에서 KBS 뉴스 박일중입니다.
영상편집:김은주/자료조사:최유나 서호정
인공지능, AI의 선두주자 오픈 AI가 새로운 AI 모델을 출시했습니다.
문자를 통해 대화하던 기존 모델과 달리 실시간으로 음성 대화를 할 수 있다는 건데, 시각과 청각으로도 상황을 인식할 수 있어 한층 진보된 모델이라는 게 오픈 AI 측의 설명입니다.
뉴욕에서 박일중 특파원입니다.
[리포트]
한 남성이 휴대전화에 담긴 AI와 대화합니다.
["(안녕. 어떻게 지내?) 안녕. 잘 지내. 넌 어때?"]
오픈 AI가 새로 출시한 GPT-4o라는 AI 모델입니다.
기존 GPT는 주로 문자를 통해 질문과 답변이 오갔는데 음성으로 대화를 주고받는 겁니다.
카메라에 담긴 모습을 보고 상황을 추론하기도 합니다.
[AI 목소리 : "조명과 삼각대, 마이크 같은 것을 볼 때 당신은 비디오를 찍으려 하고 있거나 실시간 방송을 하는 것 같아요."]
다른 시연에선 다른 GPT로부터 들은 상황을 반영해 곧바로 노래를 부릅니다.
[AI 목소리 : "세련된 전망이 있는 방에서, 은은한 조명 속에 매끈한 검은 옷을 입은 사람이 서 있어요."]
이렇게 질문에 곧바로 대답하는 시간은 평균 320밀리 초로 인간의 응답시간과 비슷하다고 오픈 AI는 설명했습니다.
답 제공 중에 끼어들어도 대화가 계속 이어질 뿐 아니라 50개 언어에 대한 챗GPT의 품질과 속도가 향상됐다고도 밝혔습니다.
[미라 무라티/오픈AI 최고 기술 책임자 : "지금까지 꽤 괜찮았어요. 그런데 사용 편의성이라는 측면에선 이번이 진정한 첫 번째 큰 진전입니다."]
오픈 AI는 이번 버전은 무료 사용자를 포함해 모두에게 무료로 제공된다고 밝혔습니다.
뉴욕에서 KBS 뉴스 박일중입니다.
영상편집:김은주/자료조사:최유나 서호정
-
-
박일중 기자 baikal@kbs.co.kr
박일중 기자의 기사 모음
-
이 기사가 좋으셨다면
-
좋아요
0
-
응원해요
0
-
후속 원해요
0
이 기사에 대한 의견을 남겨주세요.