1. 오픈AI가 사람과 같이 사물을 인식하고 자연스러운 대화가 가능한 ‘옴니모델’ 인공지능(AI) ‘GPT-4o’를 공개했다.

 

2. GPT-4o는 기본 GPT-4 터보보다 성능이 개선됐음에도 50% 저렴한 비용으로 구동 가능해 효율성이 더욱 높고, 무료 사용자들에게도 제공될 계획이다.

 

3. 오픈AI·마이크로소프트(MS) 진영이 구글 연례 최대행사 ‘구글 I/O’를 하루 앞두고 ‘폭탄’을 투척하며 초거대 AI 시장 패권 경쟁에 더욱 불이 붙고 있다.

 

4. GPT-4o의 ‘o’는 옴니모델(Omnimodel)을 뜻한다. 언어 외 사진·음성 등을 함께 처리 가능한 멀티모달(MultiModal)을 넘어섰다는 의미

 

5. 실시간 통번역도 가능하다. 이탈리아어를 GPT-4o가 영어로 번역해 말해주고, 영어로 대답하면 이를 다시 이탈리아어로 번역해 말하는 식

 

6. 비전 인식도 더욱 개선됐다. 카메라를 통해 ‘시야’를 인식해 공간의 분위기나 사람의 기분을 이해함은 물론, 수식을 실시간으로 해석해 선생님처럼 풀이 과정을 안내해주기도 한다.

 

7. 올트먼 CEO는 자신의 블로그를 통해 “새로운 음성·비디오 모드는 사용해 본 최고의 컴퓨터 인터페이스로 영화에 나오는 AI 같은 느낌”이라며 “컴퓨터와 자연스러운 대화를 통해 이전보다 훨씬 더 많은 작업을 수행할 수 있는 흥미로운 미래를 실제로 볼 수 있게 됐다”고 밝혔다.

 

8. 기능성 개선에도 AI 구조는 더욱 가벼워졌다. 각 언어별 토큰 사용량이 GPT-4터보 대비 1.1~4.4배 줄었고, 앱인터페이스(API)는 기존보다 2배 빠르다. 오픈AI는 GPT-4o의 평균 응답시간이 0.232초에 불과해 인간 평균인 0.32초보다도 빠르다고 밝혔다.

 

9. 전작인 GPT-3.5와 GPT-4의 평균 응답 시간이 각각 2.8초, 5.4초에 달했음에 미뤄보면 혁신적인 발전이다. 모델 경량화는 곧 비용 절감과 직결된다. GPT-4o는 작동비용도 전작 대비 50% 저렴하다고 한다.

 

10. 오픈AI·MS의 GPT-4o 발표는 초거대 AI·클라우드 경쟁사 구글의 연례 최대 행사인 구글 I/O를 하루 앞두고 기습적으로 이뤄졌다. 구글 잔칫상에 재를 뿌린 셈이다.

 

11. 다만 검색 시장 패권을 지닌 구글 입장에서는 오픈AI가 당초 예상되던 ‘GPT 검색’ 기능을 내놓지 않았다는 점이 위안거리



https://youtu.be/7_dHd0nVqjI?si=j8S9QLKsDnwQv6Uy


기능도 정신나갔는데 가격은 줄어들고
미쳤음 이제 대화도 사람하고 하는수준이고
카메라로 내기분도 읽고 노래도 부르고
갑자기 또 정신나감