En su esperada conferencia anual para desarrolladores, AWS presentó un innovador chatbot de IA diseñado para mejorar la experiencia de soporte al cliente para los agentes de centros de contacto. Llamado Amazon Q, este chatbot inteligente proporciona recomendaciones en tiempo real para respuestas y acciones mientras los agentes interactúan con los clientes. Al agilizar la comunicación, Q busca resolver problemas de los clientes de manera más eficiente, reduciendo la necesidad de derivaciones a la gerencia.
Amazon Q está integrado sin problemas en Amazon Connect, la robusta solución de centro de contacto basada en la nube de AWS. La empresa destaca que incluso los líderes empresariales no técnicos pueden establecer un centro de contacto en la nube en solo minutos, haciendo accesible el soporte al cliente avanzado para todos.
Además de Q, AWS introdujo Amazon Contact Lens, una herramienta impulsada por IA que genera resúmenes concisos de las interacciones entre clientes y agentes. Tradicionalmente, los supervisores de centros de contacto dependían de notas de los agentes y escuchaban llamadas extensas o examinaban transcripciones largas para obtener información y mejorar el servicio. Con Contact Lens, las empresas ahora ahorran tiempo valioso al recibir resúmenes breves, lo que permite evaluaciones más rápidas y mejoras en sus estrategias de servicio.
AWS también presentó Amazon Lex, una plataforma simplificada para crear chatbots de autoservicio y sistemas de respuesta de voz interactiva (IVR). Esta tecnología permite a los administradores construir sistemas interactivos usando indicaciones en lenguaje natural. Por ejemplo, pueden especificar: “Crea un bot para gestionar reservas de hotel utilizando información como el nombre del cliente, fechas de viaje y detalles de pago.” A diferencia de los chatbots tradicionales con respuestas estáticas, estos sistemas avanzados aprovechan la IA generativa para responder de manera más dinámica a las consultas de los clientes. Si un cliente solicita una habitación de hotel para sábado y domingo, el sistema lo reconocerá como una estadía de dos noches, mejorando así la experiencia del cliente.
Pasquale DeMaio, Vicepresidente de Amazon Connect en AWS Applications, comentó: “La industria de los centros de contacto está lista para una transformación fundamental a través de la IA generativa, proporcionando a agentes, supervisores y administradores herramientas innovadoras para ofrecer experiencias personalizadas a los clientes de manera más efectiva.”
Amazon también está ampliando sus capacidades de hardware con el lanzamiento de dos familias de chips mejoradas diseñadas para procesamiento de IA: Graviton4 y Trainium2. Estos chips de nueva generación están específicamente diseñados para mejorar el rendimiento en tareas de aprendizaje automático e IA generativa.
Graviton4 ofrece mejoras impresionantes, con hasta un 30% mejor rendimiento computacional, un aumento del 50% en el número de núcleos y un 75% más de ancho de banda de memoria en comparación con su predecesor, Graviton3. AWS asegura que Graviton4 proporciona un rendimiento óptimo en relación precio-rendimiento y eficiencia energética, lo que lo convierte en una opción atractiva para las empresas que escalan sus operaciones.
Trainium2 representa una evolución en las capacidades de entrenamiento de IA, ofreciendo un rendimiento de entrenamiento cuatro veces más rápido que los chips de primera generación. Este chip mejorado puede ser utilizado dentro de los EC2 UltraClusters, soportando configuraciones de hasta 100,000 chips, lo que reduce drásticamente el tiempo de entrenamiento requerido para modelos de lenguaje fundacionales y grandes, además de duplicar la eficiencia energética. Graviton4 estará disponible pronto en las instancias de Amazon EC2 R8g optimizadas para memoria, permitiendo a los clientes procesar conjuntos de datos más grandes, escalar sus cargas de trabajo y reducir costos operativos.
Además, AWS ha presentado nuevas características emocionantes para Bedrock, su plataforma totalmente gestionada que proporciona acceso a modelos de lenguaje de vanguardia a través de una API unificada. Bedrock permitirá a los usuarios implementar salvaguardias en sus aplicaciones de IA generativa, asegurando su alineación con prácticas responsables de IA. Bases de conocimiento mejoradas facilitarán el desarrollo de aplicaciones de IA generativa personalizadas utilizando datos propios. Además, Bedrock ahora incluirá agentes automatizados capaces de ejecutar tareas complejas de varios pasos utilizando los sistemas y datos internos de una empresa, como el procesamiento de órdenes de venta.
La integración de estas características extensas subraya el compromiso de AWS de llevar la tecnología de IA a nuevos límites y dotar a las empresas de las herramientas necesarias para prosperar en un entorno cada vez más competitivo. A medida que las capacidades de la IA generativa se expanden, las empresas pueden esperar un futuro donde el servicio al cliente sea más personalizado, eficiente e impactante.