Der führende Anbieter von Unternehmensanwendungssoftware, SAP, verstärkt seine Partnerschaft mit Amazon Web Services (AWS) durch innovative KI-Integrationen. Diese Zusammenarbeit beginnt mit der AI Core-Plattform, in die SAP Unterstützung für Amazon Bedrock integriert, sodass Unternehmen—insbesondere in regulierten Branchen—Generative KI-Funktionen erkunden können.
Zusätzlich verpflichtet sich SAP, AWS-Chips zu verwenden, um seine Infrastruktur zu verbessern. Das Unternehmen plant, seine Graviton-Chips aufzurüsten und AWS Trainium sowie Inferentia zu nutzen, um seine Business-AI-Angebote zu optimieren. „AWS war der erste Cloud-Anbieter, der zertifiziert wurde, um das SAP-Portfolio zu unterstützen, und heute nutzen Tausende von Unternehmen SAP-Lösungen auf AWS für die optimale Leistung ihrer geschäftskritischen Anwendungen“, erklärte Matt Garman, der künftige CEO von AWS. „Gemeinsam vereinfachen AWS und SAP die Integration von Generativer KI in zentrale Geschäftsdaten, sodass Organisationen effizienter, reaktionsschneller und nachhaltiger werden können.“
Erweiterung des Zugangs zu Generativer KI für Unternehmen
AI Core, Teil von SAPs Business Technology Platform, ermöglicht eine standardisierte, skalierbare und hyperscaler-unabhängige Verwaltung von KI-Ressourcen. Mit der Integration von Amazon Bedrock können Unternehmen nun auf eine Reihe von großen Sprachmodellen (LLMs) zugreifen, darunter Amazon Titan, Claude 3 Opus von Anthropic, Cohere’s Command R-Modelle, Mistral 7B, Mixtral 8x7B, Meta’s Llama sowie Optionen für stabile Diffusion und AI21 Labs.
„Unsere flexible und offene Architektur ermöglicht es uns, mit führenden Technologien zusammenzuarbeiten, um spezifische Bedürfnisse zu erfüllen“, sagte Dr. Philipp Herzig, Chief AI Officer von SAP. „Amazon Bedrock bietet einige der besten Modelle, die unsere Kunden verlangen, und bietet eine vielfältige Auswahl für SAP-Entwickler und Kunden, um maßgeschneiderte Erfahrungen zu schaffen.“
Diese Zusammenarbeit ermöglicht es Unternehmensentwicklern, zentrale Geschäftsprozesse auf SAP-Basis zu optimieren. Beispielsweise kann Amazon Bedrock die Compliance innerhalb von SAPs S/4HANA Central Finance verbessern, indem es Audits durch automatisierte Bankabgleichssysteme effizienter gestaltet.
Matt Wood, Vice President of AI Products bei AWS, bemerkte: „Ich habe nie so ein Engagement und so viel Innovation von Kunden rund um eine Technologie gesehen wie in den frühen AWS-Tagen. Unsere Unternehmensklienten setzen zunehmend Generative KI ein und bewegen sich von fortgeschrittenen Prototypen hin zu Produktionsprozessen, die eng mit ihren Kernoperationen verbunden sind.“
Während AWS seine Position in der KI-Entwicklung festigt, ist die Integration von SAP bemerkenswert aufgrund seiner Nutzerbasis in regulierten Sektoren. Wood erwähnte, dass Organisationen wie die New Yorker Börse, NASDAQ und große Pharmaunternehmen Generative KI schnell einführen, bedingt durch strenge Compliance-Anforderungen. „Diese Organisationen verfügen über eine hohe Datenqualität und Sicherheit, was die Einführung von Generativer KI deutlich einfacher macht als für andere Unternehmen.“
Er fügte hinzu, dass regulierte Firmen, die oft reich an Textdaten sind, KI effektiv für zahlreiche interne Anwendungen nutzen können, was ihnen die Möglichkeit gibt, ihre digitale Transformation im Vergleich zu Branchen wie Medien und Gastgewerbe zu beschleunigen. SAP-Kunden können über die Business Technology Platform (BTP) oder das Managed Cloud-Angebot RISE with SAP auf Amazon Bedrock zugreifen.
Verbesserung der KI-Funktionen mit AWS-Chips
Neben der Zusammenarbeit mit Amazon Bedrock erweitert SAP die Nutzung von AWS-Chips für die KI-Infrastruktur. Insbesondere wird HANA Cloud, die intelligente Datenanwendungen unterstützt, von Graviton3 auf Graviton4-Chips umsteigen. Darüber hinaus plant SAP die Nutzung von AWS Trainium und Inferentia-Chips für die Schulung und Bereitstellung zukünftiger KI-Produkte.
Laut AWS waren SAP-Entwickler in der Lage, in einem Proof of Concept mithilfe von Trainium- und Inferentia2-Instanzen Generative AI LLMs in nur zwei Tagen zu trainieren und anzupassen, im Vergleich zu 23 Tagen mit ähnlichen Amazon EC2-Instanzen. Durch die Nutzung der spezialisierten Architektur von Trainium für die effiziente Schulung von ML-Modellen kann SAP die Entwicklung beschleunigen, ohne die Genauigkeit zu beeinträchtigen.
Herzig betonte, dass der Fokus auf speziell entwickelten Chips darauf abzielt, den Energieverbrauch zu reduzieren, die Kosten zu senken und die Leistung zu verbessern. Er betrachtet Graviton4-Chips als einen bedeutenden Fortschritt für Datenbank- und Unternehmensarbeitslasten und unterstützt SAPs BTP, Datasphere, Analytics Cloud und Cloud ALM-Lösungen.