"영화가 현실로"…오픈AI, 사람같은 '음성 비서' 내놨다

노컷뉴스 이 시각 추천뉴스

닫기

- +

이 시각 추천뉴스를 확인하세요

샘 올트먼 오픈AI CEO가 13일(현지시간) X에 'her'라는 단어를 올렸다. X 캡처샘 올트먼 오픈AI CEO가 13일(현지시간) X에 'her'라는 단어를 올렸다. X 캡처
챗GPT를 만든 샘 올트먼 오픈AI CEO는 13일(현지시간) X(옛 트위터)에 'her'라는 단어를 올렸다.
 
오픈AI가 이날 보고 듣고 말하는 새로운 AI 모델을 공개한 것을 자축한 것이다.
 
지난 2013년 개봉된 영화 'her'는 2025년을 배경으로 인간이 AI와 사랑에 빠진다는 내용을 담은 SF 로맨틱 코미디 드라마이다.
 
샘 올트먼의 트윗은 이날 공개한 'GPT-4o'가 영화속 상상을 현실로 만들어줬다는 것을 의미한 것으로 보인다.
 
실제 'GPT-4o'는 주로 텍스트에 의존했던 기존 모델과 달리 이용자와 실시간 음성 대화를 통해 질문하고 답변을 요청할 수 있다.
 
특히, 이용자 질문에 대한 반응 속도가 남다르다.
 
'GPT-4o'의 응답 시간은 최소 232㎳(밀리초·1000분의 1초), 평균 320ms로, 이는 사람들끼리 대화에서의 응답시간과 비슷한 수준이다. 이전 모델이 평균 3~5초가 걸린 것과 비교하면 '상전벽해'나 다름 없다.
 
사람처럼 대화가 가능하고, 답을 할 때 중간에 끼어들어도 대화는 계속 유지된다.
 
이날 시연에서 '잠을 잘 자지 못하는 친구를 위해 이야기를 들려달라'고 하자, 'GPT-4o'는 다양한 목소리와 감정, 톤을 바꿔가며 이야기를 해줬다.
 
영화 'her'속 AI 사만다와 별반 차이가 없는 것이다.

오픈AI는 로봇 음성에서부터 노래까지 다양한 감정적 음색 사이를 더욱 빠르게 전환하는 이 기능을 조만간 챗GPT-Plus(월 20달러)에 넣어 출시할 예정이라고 밝혔다.
 
연합뉴스연합뉴스
또한 'GPT-4o'는 청각과 시각으로도 추론하고 이를 말할 수 있다.
 
"종이에 적힌 수학 문제(3x+1=4)를 보여주고 답을 말하지 말고 풀어달라"고 하자, 'GPT-4o'는 시각 기능을 이용해 문제를 풀어나갔다.
 
실시간 번역 기능도 지난해 11월 내놓은 GPT-4보다 2배나 더 빨라졌다.
 
오픈AI의 이날 발표는 AI를 둘러싼 또 한번의 치열한 경쟁을 예고하고 있다. 'GPT-4o' 발표는 구글의 연례 개발자 회의(I/O)를 하루 앞두고 나왔다.
 
또한 애플은 다음달 연례 세계 개발자 회의(WWDC)에서 아이폰에 생성형 AI를 탑재할 것으로 전해졌다.
 
오픈AI도 현재 기술에서 가장 큰 도약이 될 것으로 보이는 'GPT-5' 모델을 개발하고 있는 상태다.
 
월스트리트저널(WSJ)은 이날 'GPT-4o'의 출시에 대해 "오픈AI를 비롯해 AI관련 빅테크, 스타트업들이 시스템 개발에 막대한 돈을 쏟아부은 뒤 사용자를 늘리면서 AI 기술 향상을 위한 자금을 확보하기 위해 점점 더 노력하고 있음을 보여주는 것"이라고 평가했다.
 
한편 오픈AI측은 'GPT-4o'를 훈련하는데 어떤 종류의 데이터가 사용되었는지에 대해서는 설명을 거부했다.

0

0

※CBS노컷뉴스는 여러분의 제보로 함께 세상을 바꿉니다. 각종 비리와 부당대우, 사건사고와 미담 등 모든 얘깃거리를 알려주세요.

오늘의 기자

    많이본 뉴스

      실시간 댓글

        상단으로 이동
        페이스북 트위터 네이버 다음 카카오채널 유튜브

        다양한 채널에서 노컷뉴스를 만나보세요

        제보 APP설치 PC버전

        회사소개 사업자정보 개인정보 처리방침 이용약관