[경제] 오픈AI, '보고 듣고 말하는' 새 AI 모델 GPT-4o 출시
페이지 정보
본문
미라 무라티 CTO가 GPT-4o를 설명하는 모습
[오픈AI 라이브 스트림 캡처]
(샌프란시스코=연합뉴스) 김태종 특파원 = 챗GPT 개발사 오픈AI가 13일(현지시간) 보고 듣고 말하는 새로운 AI 모델을 공개했다.
오픈AI의 미라 무라티 최고기술책임자(CTO)는 이날 라이브 행사를 통해 "GPT-4o"(GPT-포오)라는 이름의 이 새 AI 모델을 공개하고, 시연을 선보였다.
"GPT-4o"는 주로 텍스트를 통해 대화할 수 있었던 기존 모델과 달리 이용자와 실시간 음성 대화를 통해 질문하고 답변을 요청할 수 있는 AI 모델이다.
텍스트는 물론, 청각과 시각으로도 추론하고 이를 말할 수 있는 한층 업그레이드 된 음성 어시스턴트다.
이날 시연에서 휴대전화로 "내가 좀 긴장한 상태인데 어떻게 진정할 수 있을까"라고 묻자, "숨을 깊이 들이마시라"는 음성 답이 돌아왔다.
"잠을 잘 자지 못하는 친구를 위해 잠자리 이야기를 들려달라"고 하자, 이 AI 모델은 다양한 목소리와 감정, 톤으로 바꿔가며 이야기를 들려줬다.
다른 시연에서는 종이에 적힌 수학 문제를 보여주고 풀어달라고 하자, 시각 기능을 이용해 이른 단계별로 풀어나갔다.
오픈AI는 "GPT-4o" 모델이 기존 GPT-4 터보보다 두 배 더 빠르고 비용은 2분의 1 수준이라고 설명했다. GPT-4 터보는 지난해 11월 선보인 최신 버전이다.
또 새 모델로 50개 언어에 대한 챗GPT의 품질과 속도가 향상됐으며 이날부터 개발자들이 새 모델을 사용해 애플리케이션을 구축할 수 있도록 오픈AI의 API(응용 프로그램 인터페이스)를 통해서도 이용할 수 있다고 오픈AI는 덧붙였다.
무라티 CTO는 "이번 업데이트 버전은 무료 사용자를 포함한 모든 이들에게 무료로 제공된다"며 "사용 편의성에 관해 우리가 정말로 큰 진전을 이뤘다고 생각하는 것은 이번이 처음"이라고 말했다.
[email protected]