Lors de sa très attendue conférence annuelle pour développeurs, AWS a lancé un chatbot IA innovant, conçu pour améliorer l’expérience de support client des agents de centres de contact. Nommé Amazon Q, ce chatbot intelligent fournit des recommandations en temps réel pour les réponses et les actions, alors que les agents interagissent avec les clients. En rationalisant la communication, Q vise à résoudre les problèmes des clients de manière plus efficace, réduisant ainsi le besoin d'escalader les cas à la direction.
Amazon Q est parfaitement intégré à Amazon Connect, la solution robuste de centre de contact cloud d’AWS. L’entreprise souligne que même les dirigeants d’entreprise non techniques peuvent établir un centre de contact cloud en quelques minutes, rendant un support client avancé accessible à tous.
En plus de Q, AWS a présenté Amazon Contact Lens, un outil alimenté par l’IA qui génère des résumés concis des interactions entre clients et agents. Traditionnellement, les superviseurs de centres de contact s’appuyaient sur les notes des agents et écoutaient de longs appels ou scrutaient des transcriptions volumineuses pour obtenir des informations et améliorer le service. Avec Contact Lens, les entreprises économisent un temps précieux grâce à des résumés succincts, permettant des évaluations plus rapides et des améliorations de leurs stratégies de service.
AWS a également dévoilé Amazon Lex, une plateforme simplifiée pour créer des chatbots en libre-service et des systèmes de réponse vocale interactive (IVR). Cette technologie innovante permet aux administrateurs de construire des systèmes interactifs en utilisant des instructions en langage naturel. Par exemple, ils peuvent spécifier : « Créer un bot pour gérer les réservations d’hôtel en utilisant des informations telles que le nom du client, les dates de voyage et les détails de paiement. » Contrairement aux bots traditionnels à réponses statiques, ces systèmes avancés utilisent l’IA générative pour répondre de manière plus dynamique aux requêtes des clients. Par exemple, si un client demande une chambre d’hôtel pour samedi et dimanche, le système reconnaît cela comme un séjour de deux nuits, améliorant ainsi l'expérience client globale.
Pasquale DeMaio, Vice-Président d'Amazon Connect chez AWS Applications, a déclaré : « L'industrie des centres de contact est prête pour une transformation fondamentale grâce à l'IA générative, fournissant aux agents, superviseurs et administrateurs des outils innovants pour offrir des expériences client personnalisées de manière plus efficace. »
Amazon renforce également ses capacités matérielles avec le lancement de deux familles de puces améliorées, adaptées pour le traitement IA—Graviton4 et Trainium2. Ces puces de nouvelle génération sont spécifiquement conçues pour améliorer les performances des tâches d’apprentissage automatique et d’IA générative.
Graviton4 offre des améliorations impressionnantes, avec jusqu'à 30 % de performance informatique en plus, une augmentation de 50 % du nombre de cœurs et 75 % de bande passante mémoire supplémentaire par rapport à son prédécesseur, Graviton3. AWS garantit que Graviton4 offre un rapport prix-performance optimal et une efficacité énergétique, ce qui en fait un choix attrayant pour les entreprises qui développent leurs opérations.
Trainium2 représente une évolution des capacités de formation IA, avec des performances d'entraînement quatre fois plus rapides que celles des puces de première génération. Ce nouveau chip peut être utilisé au sein des EC2 UltraClusters, soutenant des configurations allant jusqu’à 100 000 puces, réduisant ainsi considérablement le temps de formation requis pour les modèles fondamentaux et de langage tout en doublant l'efficacité énergétique. Graviton4 sera bientôt disponible dans les instances Amazon EC2 R8g optimisées pour la mémoire, offrant aux clients la capacité de traiter des ensembles de données plus volumineux, de faire évoluer leurs charges de travail et de réduire leurs coûts opérationnels.
En outre, AWS a introduit de nouvelles fonctionnalités passionnantes pour Bedrock, sa plateforme entièrement gérée qui donne accès à des modèles de langage de pointe via une API unifiée. Bedrock permettra aux utilisateurs de mettre en place des mesures de protection dans leurs applications d'IA générative, garantissant leur conformité aux pratiques d'IA responsable. Des bases de connaissances améliorées faciliteront le développement d'applications d'IA générative personnalisées utilisant des données propriétaires. De plus, Bedrock inclura désormais des agents bots capables d'exécuter des tâches complexes en plusieurs étapes en utilisant les systèmes internes et les données d'une entreprise, telles que le traitement des commandes de vente.
Cette intégration de fonctionnalités étendues souligne l'engagement d'AWS à repousser les limites de la technologie IA et à fournir aux entreprises les outils nécessaires pour réussir dans un environnement de plus en plus compétitif. À mesure que les capacités de l'IA générative s'élargissent, les entreprises peuvent anticiper un avenir où le service client est plus personnalisé, efficace et percutant.