2024.05.22(수)
미라 무라티 CTO가 GPT-4o를 설명하는 모습 [오픈AI 라이브 스트림 캡처]
미라 무라티 CTO가 GPT-4o를 설명하는 모습 [오픈AI 라이브 스트림 캡처]


챗GPT 개발사 오픈AI가 13일(현지시간) 보고 듣고 말하는 새로운 AI 모델을 공개했다.

오픈AI의 미라 무라티 최고기술책임자(CTO)는 이날 라이브 행사를 통해 'GPT-4o'(GPT-포오)라는 이름의 이 새 AI 모델을 공개하고, 시연을 선보였다.

'GPT-4o'는 주로 텍스트를 통해 대화할 수 있었던 기존 모델과 달리 이용자와 실시간 음성 대화를 통해 질문하고 답변을 요청할 수 있는 AI 모델이다.

텍스트는 물론, 청각과 시각으로도 추론하고 이를 말할 수 있는 한층 업그레이드 된 음성 어시스턴트다.

이날 시연에서 휴대전화로 '내가 좀 긴장한 상태인데 어떻게 진정할 수 있을까'라고 묻자, '숨을 깊이 들이마시라'는 음성 답이 돌아왔다.
'잠을 잘 자지 못하는 친구를 위해 잠자리 이야기를 들려달라'고 하자, 이 AI 모델은 다양한 목소리와 감정, 톤으로 바꿔가며 이야기를 들려줬다.

다른 시연에서는 종이에 적힌 수학 문제를 보여주고 풀어달라고 하자, 시각 기능을 이용해 이른 단계별로 풀어나갔다.

오픈AI는 'GPT-4o' 모델이 기존 GPT-4 터보보다 두 배 더 빠르고 비용은 2분의 1 수준이라고 설명했다. GPT-4 터보는 지난해 11월 선보인 최신 버전이다.

또 새 모델로 50개 언어에 대한 챗GPT의 품질과 속도가 향상됐으며 이날부터 개발자들이 새 모델을 사용해 애플리케이션을 구축할 수 있도록 오픈AI의 API(응용 프로그램 인터페이스)를 통해서도 이용할 수 있다고 오픈AI는 덧붙였다.

무라티 CTO는 "이번 업데이트 버전은 무료 사용자를 포함한 모든 이들에게 무료로 제공된다"며 "사용 편의성에 관해 우리가 정말로 큰 진전을 이뤘다고 생각하는 것은 이번이 처음"이라고 말했다. / 연합뉴스

[안재후 글로벌에픽 기자/anjaehoo@naver.com]
<저작권자 ©GLOBALEPIC 무단 전재 및 재배포 금지>
항목 현재가 전일대비
코스피 2,724.18 ▼17.96
코스닥 846.51 ▼0.57
코스피200 371.55 ▼2.13