¡OpenAI presenta el Modo de Voz Avanzado de ChatGPT, similar a un humano, para usuarios de EE. UU. y equipos!

OpenAI está lanzando su tan esperado "Modo de Voz Avanzado de ChatGPT", una interfaz de voz conversacional similar a la humana, ampliando el acceso más allá de su grupo inicial de pruebas y lista de espera. Esta función estará disponible para todos los suscriptores de pago de los planes ChatGPT Plus y Team, con un acceso gradual que comenzará en EE. UU. en los próximos días. Se espera que los suscriptores de los planes Edu y Enterprise tengan acceso la próxima semana.

Además de la interfaz de voz, OpenAI introduce la opción de almacenar "instrucciones personalizadas" y "memoria" para interacciones más personalizadas, reflejando características previamente lanzadas para la opción de texto de ChatGPT. Los usuarios disfrutarán de cinco nuevos estilos de voz: Arbor, Maple, Sol, Spruce y Vale, complementando las voces existentes: Breeze, Juniper, Cove y Ember.

Esta mejora permite a los usuarios de ChatGPT interactuar con el chatbot a través de la voz en lugar de escribir. Una notificación emergente confirmará cuando los usuarios ingresen al modo de Asistente de Voz Avanzado en la aplicación. OpenAI ha dedicado tiempo a perfeccionar los acentos de idiomas extranjeros populares y a mejorar la fluidez conversacional desde la versión alfa. Los usuarios también notarán un Modo de Voz Avanzado rediseñado, que presenta una esfera azul animada.

Estas actualizaciones son exclusivas del modelo GPT-4o, excluyendo el nuevo modelo de vista previa o1. Las instrucciones personalizadas y las capacidades de memoria personalizarán aún más las interacciones de los usuarios durante los chats por voz.

A medida que los asistentes de voz de IA, como Siri de Apple y Alexa de Amazon, ganan popularidad, los desarrolladores buscan crear experiencias conversacionales más humanas. ChatGPT ha incorporado funcionalidad de voz con su característica de Lectura en Voz Alta; sin embargo, el Modo de Voz Avanzado tiene como objetivo ofrecer una interacción más atractiva y auténtica.

Entre los competidores, Hume AI lanzó recientemente su Interfaz de Voz Empática, que detecta emociones a través de patrones de voz, y Kyutai presentó su asistente de voz de IA de código abierto, Moshi. Google ha agregado voces a su chatbot Gemini, mientras que Meta está desarrollando voces que imitan a actores populares para su plataforma de IA. OpenAI afirma que está haciendo que la tecnología de voz de IA sea más accesible que la de sus competidores.

A pesar del entusiasmo, la integración de voces de IA no ha estado exenta de controversias. Surgieron preocupaciones sobre la similitud de una de las voces de ChatGPT, Sky, con la voz de la actriz Scarlett Johansson, especialmente después de que el CEO Sam Altman se refiriera a "ella", evocando el papel de Johansson como asistente de IA en una película. OpenAI ha enfatizado que no tiene intención de replicar las voces de personas famosas y mantiene que los usuarios solo tendrán acceso a nueve voces distintas de OpenAI.

El lanzamiento fue inicialmente retrasado desde una fecha proyectada a finales de junio hasta “finales de julio o principios de agosto”, en parte debido a un compromiso con pruebas de seguridad. OpenAI llevó a cabo extensas evaluaciones con equipos externos expertos en 45 idiomas a través de 29 regiones. La decisión de expandir el acceso ahora sugiere que OpenAI se siente confiado en las medidas de seguridad implementadas, alineándose con su enfoque cauteloso de colaborar con los gobiernos de EE. UU. y el Reino Unido y proporcionar vistas previas de nuevos modelos antes de su lanzamiento.

Most people like

Find AI tools in YBX