OpenAI ha iniciado el despliegue alfa de su Modo de Voz Avanzado para un grupo selecto de usuarios de ChatGPT Plus, mejorando la conversación natural con el chatbot de IA en la aplicación móvil de ChatGPT para iOS y Android.
En su cuenta de X, OpenAI anunció que esta función está disponible inicialmente para "un pequeño grupo de usuarios de ChatGPT Plus", con planes de ampliar el acceso gradualmente a todos los suscriptores Plus para el otoño de 2024. ChatGPT Plus, el servicio de suscripción de $20 al mes, ofrece acceso al avanzado modelo de lenguaje de OpenAI, junto con otros niveles: Gratis, Team y Enterprise.
No está claro cómo OpenAI seleccionó a los primeros usuarios del Modo de Voz Avanzado; sin embargo, los elegidos recibirán un correo electrónico y una notificación en la aplicación con instrucciones. Los usuarios interesados deben estar atentos a las actualizaciones en su aplicación móvil de ChatGPT.
Presentado en el evento de Actualización de Primavera de OpenAI en mayo de 2024, el Modo de Voz Avanzado permite conversaciones en tiempo real con cuatro voces generadas por IA. El chatbot busca interacciones naturales, gestionando interrupciones y mostrando matices emocionales en su discurso.
OpenAI destacó varias aplicaciones prácticas para esta función, como asistencia para tutorías, consejos de moda y apoyo para personas con discapacidad visual al combinarse con sus capacidades de Visión.
Aunque originalmente se planeó su lanzamiento para finales de junio, el despliegue enfrentó retrasos tras una controversia con la actriz Scarlett Johansson, quien alegó que OpenAI había intentado imitar su voz. En respuesta, OpenAI eliminó la voz de IA “Sky” de su biblioteca.
Recientemente, la cuenta oficial de la aplicación ChatGPT en X confirmó el tan esperado lanzamiento del Modo de Voz Avanzado: “¡El Modo de Voz Avanzado, tan esperado, comienza a desplegarse ahora!”
Mira Murati, CTO de OpenAI, expresó su entusiasmo por la nueva función, afirmando: “Conversaciones más ricas y naturales hacen que la tecnología sea menos rígida; la hemos encontrado más colaborativa y útil, y creemos que tú también lo harás.”
En su anuncio oficial, OpenAI enfatizó su compromiso con la seguridad y la calidad. "Desde que mostramos por primera vez el Modo de Voz Avanzado, hemos estado reforzando la seguridad de las conversaciones de voz para preparar esta tecnología para millones de usuarios," dijo la empresa, señalando pruebas exhaustivas de capacidades de voz con más de 100 especialistas externos en 45 idiomas. Para proteger la privacidad, el modelo solo utilizará las cuatro voces preestablecidas y bloqueará cualquier salida fuera de alcance. Además, se han implementado medidas de protección contra solicitudes de contenido violento o con derechos de autor.
Esta noticia surge en un momento en que las preocupaciones sobre el potencial de la IA para el fraude y la suplantación de identidad están recibiendo nueva atención. Actualmente, el Modo de Voz de OpenAI no soporta la generación o clonación de nuevas voces, aunque aún puede presentar riesgos para quienes no sean conscientes de su naturaleza de IA.
En un incidente separado, Elon Musk enfrentó críticas por compartir un clon de voz de la candidata presidencial demócrata de EE. UU., Kamala Harris, en un video crítico, lo que subraya los problemas recurrentes en torno a la tecnología de clonación de voz.
Desde su Actualización de Primavera, OpenAI ha publicado varios documentos abordando la seguridad y la alineación de modelos de IA, mientras enfrenta críticas por su énfasis en las lanzamientos de productos sobre preocupaciones de seguridad. El despliegue cauteloso del Modo de Voz Avanzado busca contrarrestar estas críticas y tranquilizar a usuarios y reguladores sobre el compromiso de OpenAI con la seguridad junto con la innovación.
La introducción del Modo de Voz Avanzado distingue aún más a OpenAI de competidores como Meta y Anthropic, intensificando la competencia en el ámbito de la tecnología de voz emocional de IA.