[경제] 오픈AI, '보고 듣고 말하는' 새 AI 모델 GPT-4o 출시 > 멤버뉴스

본문 바로가기

멤버뉴스

[경제] 오픈AI, '보고 듣고 말하는' 새 AI 모델 GPT-4o 출시

페이지 정보

조회 730 회 작성일 24-05-14 04:12 댓글 0

본문

공유하기

  • 페이스북으로 보내기
  • 구글플러스로 보내기
  • 트위터로 보내기

98466_2372224324_ruYlDhje_202405146642658d983b2.jpg
미라 무라티 CTO가 GPT-4o를 설명하는 모습
[오픈AI 라이브 스트림 캡처]

(샌프란시스코=연합뉴스) 김태종 특파원 = 챗GPT 개발사 오픈AI가 13일(현지시간) 보고 듣고 말하는 새로운 AI 모델을 공개했다.


오픈AI의 미라 무라티 최고기술책임자(CTO)는 이날 라이브 행사를 통해 "GPT-4o"(GPT-포오)라는 이름의 이 새 AI 모델을 공개하고, 시연을 선보였다.


"GPT-4o"는 주로 텍스트를 통해 대화할 수 있었던 기존 모델과 달리 이용자와 실시간 음성 대화를 통해 질문하고 답변을 요청할 수 있는 AI 모델이다.


텍스트는 물론, 청각과 시각으로도 추론하고 이를 말할 수 있는 한층 업그레이드 된 음성 어시스턴트다.


이날 시연에서 휴대전화로 "내가 좀 긴장한 상태인데 어떻게 진정할 수 있을까"라고 묻자, "숨을 깊이 들이마시라"는 음성 답이 돌아왔다.


"잠을 잘 자지 못하는 친구를 위해 잠자리 이야기를 들려달라"고 하자, 이 AI 모델은 다양한 목소리와 감정, 톤으로 바꿔가며 이야기를 들려줬다.


다른 시연에서는 종이에 적힌 수학 문제를 보여주고 풀어달라고 하자, 시각 기능을 이용해 이른 단계별로 풀어나갔다.


오픈AI는 "GPT-4o" 모델이 기존 GPT-4 터보보다 두 배 더 빠르고 비용은 2분의 1 수준이라고 설명했다. GPT-4 터보는 지난해 11월 선보인 최신 버전이다.


또 새 모델로 50개 언어에 대한 챗GPT의 품질과 속도가 향상됐으며 이날부터 개발자들이 새 모델을 사용해 애플리케이션을 구축할 수 있도록 오픈AI의 API(응용 프로그램 인터페이스)를 통해서도 이용할 수 있다고 오픈AI는 덧붙였다.


무라티 CTO는 "이번 업데이트 버전은 무료 사용자를 포함한 모든 이들에게 무료로 제공된다"며 "사용 편의성에 관해 우리가 정말로 큰 진전을 이뤘다고 생각하는 것은 이번이 처음"이라고 말했다.


[email protected]


추천90 비추천 37
관련글
  • 사설응급구조 업체 직원 폭행 사망
  • 손예진 팩트폭행
  • PD의 패션 고민
  • [노는언니] 여자핸드볼 국대 김온아 축구실력
  • NC 리니지의 위엄을 몰랐던 김종민과 딘딘
  • 볼빨간사춘기 안지영의 천재성
  • 16개월 아이가 사망하기 1일 전
  • [라디오스타] 트로트 가수들의 팬픽 수준
  • 크리스마스 기념으로 원더걸스 노래 커버 / 최근 자컨 모음
  • JYP 금기사항
  • 실시간 핫 잇슈
  • 뮤직뱅크 컴백무대 / 이영지의 레인보우 무대 모음
  • 아시아쿼터 조건은 NPB 선수들에게도 어필이 된다고 봅니다.
  • 학창 시절 남자 애들이 자기 때문에 줄 섰다는 한혜진
  • 김계란의 제로콜라 정리
  • 남자들이 타짜의 곽철용에게 환장할 수밖에 없는 이유
  • 유민상 컵라멱 먹는법
  • 이시각 진짜로 기자회견이 필요하지 않을까 싶은 걸그룹..
  • 골목식당, 공릉동 찌개백반집에 감동 받은 정인선
  • 우리나라 진짜 무인도 등대지기 생활
  • 키움 구단 팬 사찰 의혹
  • Copyright © www.hambora.com All rights reserved.