Amazon ha presentado importantes mejoras en las capacidades de procesamiento del lenguaje natural y de habla de Alexa, lo que permite al asistente virtual mantener interacciones más humanas. Esta evolución, anunciada en una presentación en mayo, introduce un nuevo modelo subyacente diseñado para agilizar las conversaciones, haciéndolas más orgánicas e intuitivas.
Entre las nuevas características, Alexa ahora puede realizar llamadas a API, lo que mejora el acceso a información y personaliza la experiencia del usuario. Además, se ha perfeccionado la base de conocimiento de Alexa, aumentando su fiabilidad al proporcionar respuestas basadas en hechos. Amazon también ha renovado el sistema de reconocimiento automático de voz (ASR) de Alexa, fortaleciendo sus algoritmos y hardware y aprovechando un modelo de texto a voz más extenso, entrenado con miles de horas de audio multilingüe. Este avanzado sistema de ASR recupera inteligentemente las interacciones tras interrupciones, gracias a una función que corrige el habla truncada, permitiendo intercambios más fluidos.
Adicionalmente, Alexa ha incorporado un nuevo modelo de voz a voz que agrega cualidades conversacionales similares a las humanas, como la risa y la capacidad de reflejar el tono emocional del usuario. Por ejemplo, si un usuario expresa emoción, Alexa puede responder de manera acorde, enriqueciendo la interacción con matices emocionales.
Estas innovaciones fueron presentadas por Dave Limp, vicepresidente senior de Amazon, durante un evento en la nueva sede de la compañía en Arlington, Virginia. Limp destacó que las interacciones con Alexa ahora están diseñadas para sentirse "como hablar con otro ser humano", subrayando los avances logrados en las habilidades conversacionales del asistente.
Otra característica destacada permite a los usuarios activar Alexa simplemente al mirar la pantalla de un dispositivo con cámara, eliminando la necesidad de una palabra de activación. Esta mejora, a menudo comparada con las últimas actualizaciones de Siri de Apple, utiliza un nuevo procesamiento visual en el dispositivo junto con modelos acústicos para determinar con precisión cuándo un usuario se dirige a Alexa y no a otra persona.
El despliegue de estas impresionantes capacidades comenzará en los próximos meses y se alinea con la visión del CEO Andy Jassy de crear "el mejor asistente personal del mundo". Para respaldar esta misión, Amazon ha establecido un equipo central dedicado a proyectos ambiciosos de inteligencia artificial. Este equipo, liderado por Rohit Prasad, científico jefe de Alexa y que reporta directamente al CEO Jassy, está preparado para desarrollar modelos de lenguaje avanzados que elevarán aún más las funcionalidades y la experiencia del usuario de Alexa.