Advanced Voice Mode는 ChatGPT의 혁신적인 기능으로, 사용자가 AI 챗봇과 실시간으로 대화할 수 있게 해줍니다. 이 기능은 텍스트 프롬프트나 긴 오디오 교환 없이도 원활한 상호작용을 지원합니다. 7월 말에 일부 Plus 구독자에게 처음 출시되었으며, OpenAI의 스프링 업데이트 행사에서 처음 선보였습니다.
OpenAI는 Advanced Voice Mode를 통해 “보다 자연스럽고 실시간 대화”를 가능하게 하며, 사용자가 대화 중에 자연스럽게 중단할 수 있도록 설계했다고 설명합니다. 또한 사용자의 감정을 감지하고 반응하며, 대화 중에는 숨을 고르거나 인간의 웃음을 모방할 수도 있습니다. 아직 접근하지 못한 경우 걱정하지 마세요—더 많은 사용자에게 곧 제공될 예정입니다.
최근 OpenAI는 Advanced Voice 기능을 일부 ChatGPT Plus 구독자에게 공식적으로 도입하여 일부 사용자에게 탐색할 기회를 제공하고 있습니다. 초기 롤아웃의 정확한 규모는 알려지지 않았으나, 회사는 앞으로 몇 주 내에 접근을 확대할 것이라고 약속했으며, 이번 가을까지 모든 Plus 구독자에게 완전하게 제공될 것으로 예상됩니다. 많은 사용자들이 이 기능을 시도하고 싶어하지만, 겨울이 오기 전에 접근할 수 있을 것으로 보입니다. 접근 권한이 부여되면 이메일 초대장이나 ChatGPT 앱에서 알림을 받게 됩니다.
Advanced Voice Mode를 사용하려면, Plus 구독자여야 하며, Android 기기에서는 앱 버전 1.2024.206 이상, iPhone에서는 iOS 16.4 이상의 운영체제를 사용해야 합니다. 올바른 장치가 있더라도 알파 릴리스 단계에 참여할 수 있는 것은 아닙니다. OpenAI는 이 기능에 대해 사용자를 선택하는 기준을 공개하지 않았지만, 선정된 사용자는 ChatGPT 모바일 앱에서 새 모드에 접근할 수 있는 이메일 알림과 툴팁을 받을 것입니다.
알파 단계 동안 OpenAI는 Advanced Voice Mode로 진행된 대화의 오디오를 수집하여 모델을 개선하는 데 활용할 예정입니다. 데이터 공유를 선택 해제하지 않은 경우만 해당됩니다. 이 옵션을 비활성화하려면 앱 설정의 데이터 제어 탭으로 이동해 "모두의 목소리 개선" 항목의 선택을 해제하면 됩니다.
OpenAI는 Advanced Voice의 입력 및 출력을 위해 하루 사용 제한이 있으며, 구체적인 시간은 공개되지 않았습니다. 이러한 제한은 시간이 지남에 따라 변동될 수 있습니다. 그럼에도 불구하고 Himels Tech와 같은 사용자들은 거의 10분에 달하는 대화를 보여주었습니다. AI는 남은 시간이 3분일 때 사용자에게 알리고, 대화를 마친 후 표준 음성 인터페이스로 돌아갑니다.
Advanced Voice Mode는 기존 GPT-4o 대형 언어 모델과의 상호작용을 위한 새로운 방법을 제공합니다. 본질적으로 텍스트 기반 ChatGPT로 할 수 있는 모든 작업이 Advanced Voice에서도 가능하며, 재미있는 음성 기능이 더해집니다. 초기 사용자는 비트박스, 스토리텔링, 빠른 숫자 세기 등의 능력을 탐색하고 있습니다.
그러나 Advanced Voice Mode에는 안전 조치와 제한 사항이 존재합니다. 사용자는 이 모드에서 기억을 생성하거나 사용자 지정 지침을 활용할 수 없으며, GPT에 접근할 수 없습니다. 이전의 Advanced Voice 대화에서의 세부사항은 기억할 수 있으나, 텍스트 프롬프트나 표준 음성 인터페이스를 통해 진행된 이전 대화는 참고할 수 없습니다.
또한, Advanced Voice는 요청에 상관없이 노래를 부르지 않습니다. OpenAI는 "창작자의 권리를 존중하기 위해 여러 가지 조치를 마련했으며, 이를 위해 새로운 필터를 도입하였습니다. Advanced Voice Mode에서 노래와 같은 음악 콘텐츠를 생성하지 않도록 방지하고 있습니다."라고 밝혔습니다.