오늘이 바로 그 날입니다!
OpenAI의 공동 창립자이자 CEO인 샘 알트먼이 유명한 ChatGPT와 그 기초가 되는 GPT-4 대형 언어 모델(LLM)에 대한 중요한 업데이트를 발표했습니다.
언제 그리고 어디서
이번 스프링 업데이트 이벤트는 2024년 5월 13일 월요일, 태평양 표준시 10시 / 동부 표준시 1시에 시작되며, OpenAI의 YouTube 채널에서 생중계됩니다. 이미 5,000명 이상의 시청자가 이 이벤트를 기다리고 있습니다. 유튜브 스트리밍은 태평양 표준시 9시 / 동부 표준시 12시부터 시작될 예정입니다.
OpenAI의 스프링 업데이트에서 기대할 사항
구글에 맞설 수 있는 검색 엔진과 같은 추측이 있었지만, 알트먼은 X(구 트위터)에서 GPT-5나 검색 엔진에 대한 발표는 없다고 밝혔습니다. 대신, 그는 "사람들이 좋아할 새로운 것들에 열심히 작업하고 있다! 마치 마법 같아요."라고 흥미로운 신소식에 대해 암시했습니다. OpenAI의 회장 그렉 브록먼은 “새로운 작업의 라이브 데모”를 약속하며 이 감정을 공유했습니다.
신기능에 대한 추측
OpenAI 직원들의 X 활동은 2006년 영화 ‘Her’의 캐릭터 사만다와 유사한 대화형 음성 비서의 도입을 암시하고 있습니다. 알트먼은 스펜서 쉬프의 게시물을 “좋아요”를 눌렀으며, 이는 이벤트를 위해 ‘Her’를 다시 보고 있다는 내용입니다. 여러 OpenAI 연구자들도 다가오는 발표에 대해 기대감을 나타내며, Aidan Clark, Mo Bavarian 및 Steven Heidel 등 여러 전문가들이 함께하고 있습니다.
알트먼은 레딧에서도 공공과 소통하며 OpenAI의 "모델 사양"에 대해 논의했습니다. 한 사용자가 ChatGPT-4와 DALL-E에 대한 무료 접근 가능성에 대해 질문했으며, 알트먼은 가능성이 있음을 암시했습니다. 또 다른 사용자 @ananayarora는 OpenAI 소스 코드에서 webRTC 서버를 발견하여 ChatGPT의 전화 통화 기능 가능성을 언급했습니다. X 사용자 @testingcatalog는 ChatGPT iOS 앱에 최근 업데이트가 이루어졌음을 보고하며 대화 인터페이스 개선을 시사했습니다.
기존 음성 기능
2023년 12월 이후로 OpenAI의 ChatGPT는 iOS와 안드로이드에서 음성 인터페이스를 갖추고 있어 사용자와 음성 상호작용이 가능합니다. 2024년 3월에 도입된 “읽어주기” 기능은 ChatGPT가 AI 생성 음성을 사용하여 응답을 소리 내어 읽어줍니다. OpenAI는 단 15초의 녹음을 통해 발화자의 목소리를 복제할 수 있는 음성 클로닝 기술을 선보였지만, 이는 아직 공개되지 않았으며 책임 있는 사용에 대한 OpenAI의 의지를 반영합니다. 새로운 오디오 대화 비서가 이러한 기능을 향상시켜, 더 자연스러운 대화를 가능하게 할 것으로 기대됩니다.
미래 발전
또한 사용자 @alwaysaq00은 GPT-4 Omni(또는 GPT-4o)라는 새로운 모델에 대한 언급을 발견하여 그 의미에 대한 호기심을 불러일으켰습니다.
오늘 OpenAI가 발표할 내용은 AI 및 기술 커뮤니티 내에서 흥미와 논쟁을 불러일으킬 것이며, GPT-5 없이도 높은 기대를 충족시킬 수 있을지 궁금합니다.