[경제] 오픈AI '사람처럼 말로 대화' 새 AI 모델 GPT-4o 전격 출시(종합)
페이지 정보
본문
보고 듣고 사람과 비슷한 속도로 응답…"모든 이용자에 무료 제공"
올트먼 "마법처럼 느껴져"…엑스에 AI 영화 "그녀" 뜻하는 "her" 적어
구글 행사 하루 전날 공개…애플, 내달 시리에 생성형 AI 탑재 전망
미라 무라티 CTO가 GPT-4o를 설명하는 모습
[오픈AI 라이브 스트림 캡처]
(샌프란시스코=연합뉴스) 김태종 특파원 = 챗GPT 개발사 오픈AI가 13일(현지시간) 보고 듣고 말하는 새로운 AI 모델을 공개했다.
오픈AI의 미라 무라티 최고기술책임자(CTO)는 이날 라이브 행사를 통해 "GPT-4o"(GPT-포오)라는 이름의 이 새 AI 모델을 공개하고, 시연을 선보였다.
"GPT-4o"는 주로 텍스트를 통해 대화할 수 있었던 기존 모델과 달리 이용자와 실시간 음성 대화를 통해 질문하고 답변을 요청할 수 있는 AI 모델이다. 새 모델의 "o"는 모든 것이라는 "옴니"(omni)를 뜻한다.
이 모델은 텍스트는 물론, 청각과 시각으로도 추론하고 이를 말할 수 있는 한층 똑똑해진 된 음성 어시스턴트다.
특히, 이용자 질문에 곧바로 답이 제공된다. GPT-4o의 응답 시간은 최소 232밀리초, 평균 320밀리초로, 이는 인간의 응답시간과 비슷하다고 오픈AI는 설명했다.
이전 모델인 GPT-3.5는 평균 2.8초, GPT-4가 응답에 5.4초가 걸렸다. GPT-4o는 사람처럼 대화가 가능하고, 답 제공 중에 끼어들어도 대화는 계속 이어진다.
이날 시연에서 휴대전화로 "내가 좀 긴장한 상태인데 어떻게 진정할 수 있을까"라고 묻자, "숨을 깊이 들이마시라"는 음성 답이 돌아왔다.
"잠을 잘 자지 못하는 친구를 위해 잠자리 이야기를 들려달라"고 하자, 이 AI 모델은 다양한 목소리와 감정, 톤으로 바꿔가며 이야기를 들려줬다.
다른 시연에서는 종이에 적힌 수학 문제(3x+1=4)를 보여주고 답을 말하지 말고 풀어달라고 하자, 시각 기능을 이용해 단계별 과정을 제공했다.
실시간 번역 기능도 담았다.
오픈AI는 "GPT-4o" 모델이 기존 GPT-4 터보보다 두 배 더 빠르고 비용은 2분의 1 수준이라고 설명했다. GPT-4 터보는 지난해 11월 선보인 최신 버전이다.
샘 올트먼 오픈AI CEO
[AP 연합뉴스 자료사진. 재판매 및 DB 금지]
또 새 모델로 한국어 등 50개 언어에 대한 챗GPT의 품질과 속도가 향상됐으며 이날부터 개발자들이 새 모델을 사용해 애플리케이션을 구축할 수 있도록 오픈AI의 API(응용 프로그램 인터페이스)를 통해서도 이용할 수 있다고 오픈AI는 덧붙였다.
무료로 제공되지만 기존 유료 구독자는 무료 이용자보다 5배 많은 질문을 할 수 있고, 이날 시연된 AI 음성 모드는 몇 주 안에 공개될 예정이다.
무라티 CTO는 "사용 편의성에 관해 우리가 정말로 큰 진전을 이뤘다고 생각하는 것은 이번이 처음"이라고 말했다.
샘 올트먼 최고경영자(CEO)는 지난 10일 자신의 엑스(X·옛 트위터)에 이날 발표를 예고하며 "나에게는 (새 모델이) 마법(magic)처럼 느껴졌다"고 썼다.
이날 트위터에는 10여년전 개봉된 AI와 감정을 나눈다는 영화 "그녀"를 뜻하는 "her"라고 적었다. "GPT-4o"가 영화를 현실로 만들어주고 있다는 것을 의미하는 것으로 보인다.
오픈AI의 이날 발표는 AI를 둘러싼 또 한번의 치열한 경쟁을 예고하고 있다. 오픈AI의 이날 발표는 구글의 연례 개발자 회의(I/O)를 하루 앞두고 나왔다.
구글이 어떤 내용을 발표할 것인지는 알려지지 않았지만, AI 모델인 제미나이의 업그레이드 관련 내용이 담겨 있을 것으로 예상되고 있다.
애플은 내달 연례 세계 개발자 회의(WWDC)에서 AI 전략을 발표할 예정이다. AI 경쟁에서 뒤처졌다는 평가를 받아온 애플은 자사의 음성 비서인 시리(Siri)에 생성형 AI를 탑재할 것으로 전해졌다.
[email protected]