Auf der mit Spannung erwarteten jährlichen Entwicklerkonferenz hat AWS einen innovativen KI-Chatbot vorgestellt, der die Kundensupport-Erfahrung für Agenten im Kontaktzentrum verbessern soll. Amazon Q heißt dieser intelligente Chatbot, der in Echtzeit Empfehlungen für Antworten und Aktionen gibt, während die Agenten mit Kunden interagieren. Durch die Optimierung der Kommunikation zielt Q darauf ab, Kundenprobleme effizienter zu lösen und die Notwendigkeit von Eskalationen an das Management zu minimieren.
Amazon Q ist nahtlos in Amazon Connect integriert, die robuste cloud-basierte Kontaktcenter-Lösung von AWS. Das Unternehmen betont, dass selbst nicht-technische Führungskräfte innerhalb kürzester Zeit ein cloudbasiertes Kontaktzentrum einrichten können, was fortschrittlichen Kundensupport für jedermann zugänglich macht.
Zusätzlich zu Q stellte AWS Amazon Contact Lens vor, ein KI-gesteuertes Tool, das prägnante Zusammenfassungen der Interaktionen zwischen Kunden und Agenten erstellt. Traditionell stützten sich Vorgesetzte im Kontaktzentrum auf die Notizen der Agenten und hörten lange Anrufe oder durchforsteten umfangreiche Transkripte, um Erkenntnisse zu gewinnen und den Service zu verbessern. Mit Contact Lens sparen Unternehmen nun wertvolle Zeit, indem sie kurze Zusammenfassungen erhalten, die eine schnellere Bewertung und Verbesserung ihrer Service-Strategien ermöglichen.
AWS präsentierte auch Amazon Lex, eine vereinfachte Plattform zur Erstellung von Self-Service-Chatbots und interaktiven Sprachdialogsystemen (IVR). Diese innovative Technologie ermöglicht es Administratoren, interaktive Systeme mithilfe von natürlichen Sprachaufforderungen zu erstellen. Zum Beispiel können sie angeben: „Erstelle einen Bot für Hotelreservierungen unter Verwendung von Informationen wie Name, Reisedaten und Zahlungsdetails.“ Im Gegensatz zu traditionellen Bots mit statischen Antworten nutzen diese fortschrittlichen Systeme generative KI, um dynamischer auf Kundenanfragen zu reagieren. Wenn ein Kunde beispielsweise ein Hotelzimmer für Samstag und Sonntag anfragt, erkennt das System dies als zweitägigen Aufenthalt, was das Kundenerlebnis insgesamt verbessert.
Pasquale DeMaio, Vice President von Amazon Connect bei AWS Applications, erklärte: „Die Kontaktcenter-Branche steht durch generative KI vor einer grundlegenden Transformation, die Agenten, Vorgesetzten und Administratoren innovative Werkzeuge zur Verfügung stellt, um personalisierte Kundenerlebnisse effektiver zu gestalten.“
Amazon verstärkt auch seine Hardwarefähigkeiten mit der Einführung von zwei verbesserten Chipfamilien, die speziell für die KI-Verarbeitung entwickelt wurden – Graviton4 und Trainium2. Diese Chips der nächsten Generation sind darauf ausgelegt, die Leistung bei maschinellen Lern- und generativen KI-Aufgaben zu optimieren.
Graviton4 bietet beeindruckende Verbesserungen mit bis zu 30 % besserer Rechenleistung, einer Steigerung der Kernanzahl um 50 % und 75 % mehr Speicherbandbreite im Vergleich zu seinem Vorgänger Graviton3. AWS sichert zu, dass Graviton4 eine optimale Preis-Leistungs-Verhältnis und Energieeffizienz bietet, was ihn zu einer attraktiven Wahl für Unternehmen macht, die ihre Betriebe skalieren möchten.
Trainium2 repräsentiert eine Weiterentwicklung der KI-Trainingsfähigkeiten und bietet eine viermal schnellere Trainingsleistung im Vergleich zu den Chips der ersten Generation. Dieser verbesserte Chip kann in EC2 UltraClusters verwendet werden, die Konfigurationen von bis zu 100.000 Chips unterstützen, wodurch die benötigte Trainingszeit für fundamentale und große Sprachmodelle drastisch reduziert und die Energieeffizienz verdoppelt wird. Graviton4 wird bald in speicheroptimierten Amazon EC2 R8g-Instanzen verfügbar sein, die es Kunden ermöglichen, größere Datensätze zu verarbeiten, ihre Arbeitslasten zu skalieren und Betriebskosten zu senken.
Darüber hinaus hat AWS spannende neue Funktionen für Bedrock eingeführt, seine vollständig verwaltete Plattform, die den Zugriff auf führende große Sprachmodelle über eine einheitliche API ermöglicht. Bedrock wird es den Benutzern ermöglichen, Sicherheitsmaßnahmen in ihren Anwendungen für generative KI zu implementieren, um die Einhaltung verantwortungsvoller KI-Praktiken sicherzustellen. Verbesserte Wissensdatenbanken erleichtern die Entwicklung maßgeschneiderter generativer KI-Anwendungen mit proprietären Daten. Außerdem werden in Bedrock nun Bot-Agenten integriert, die komplexe mehrstufige Aufgaben unter Verwendung interner Systeme und Daten eines Unternehmens, wie die Bearbeitung von Verkaufsbestellungen, ausführen können.
Die Integration umfassender Funktionen unterstreicht das Engagement von AWS, die Grenzen der KI-Technologie zu erweitern und Unternehmen die Werkzeuge bereitzustellen, die sie benötigen, um in einem zunehmend wettbewerbsintensiven Umfeld erfolgreich zu sein. Mit den erweiterten Möglichkeiten der generativen KI können Unternehmen einer Zukunft entgegensehen, in der der Kundenservice personalisierter, effizienter und wirkungsvoller gestaltet wird.