Oracle hat eine Erweiterung seiner Partnerschaft mit Nvidia angekündigt und neue GPU-Optionen sowie KI-Infrastrukturdienste auf der Oracle Cloud Infrastructure (OCI) vorgestellt. Diese Entwicklung unterstreicht die Evolution des KI-Marktes und zielt darauf ab, Unternehmen aller Größen mehr Flexibilität bei der Nutzung von KI-Funktionen zu bieten.
Zu den wichtigsten Neuerungen gehört die Integration der Nvidia L40S GPUs in die Compute-Angebote von OCI sowie die Einführung neuer virtueller Maschinenoptionen für Nvidia H100 Tensor Core GPUs.
„Dies ist ein bedeutender Meilenstein in unserer Partnerschaft mit Nvidia und im KI-Markt“, sagte Leo Leung, VP von OCI und Oracle Tech, in einem aktuellen Interview. „Wir reagieren auf die wachsende Reife und die zunehmenden Anwendungsfälle für unsere Kunden.“
Die erweiterte Nvidia-GPU-Auswahl auf OCI, die von Einstiegslösungen bis hin zu Hochleistungsoptionen reicht, spiegelt die steigende Nachfrage nach KI-Rechenleistung in unterschiedlichen Unternehmensbereichen wider.
L40S GPU: Ein vielseitiger KI-Beschleuniger
Die neuen L40S GPU-Instanzen sind für verschiedene KI-Workloads ausgelegt, darunter Inferenz, das Training kleinerer Modelle sowie grafikintensive Anwendungen wie digitale Zwillinge.
Dave Salvator, Director of Accelerated Computing Products bei Nvidia, beschrieb die Anpassungsfähigkeit der L40S GPU: „Wir betrachten sie als universellen KI-Beschleuniger. Sie glänzt in der traditionellen KI – hauptsächlich bei Inferenz – kann aber auch kleinere Modelle trainieren sowie 3D-Rendering und videobasierte Verarbeitung durchführen.“
Oracle bietet diese GPU-Optionen in Bare-Metal- und virtuellen Maschinenkonfigurationen an, sodass Kunden ihre KI-Workloads individuell anpassen können. Leung bemerkte: „Bare Metal gewährleistet die maximale Verfügbarkeit von Ressourcen, was in den ersten Phasen der KI, in denen Leistung entscheidend ist, von großer Bedeutung ist.“
OCI Supercluster: Hochleistungsfähige Unterstützung großer KI-Modelle
Die Ankündigung verbessert auch Oracle's OCI Supercluster-Dienst, der nun bis zu 65.000 NVIDIA GPUs unterstützen kann. Diese umfassende Skalierung richtet sich an Organisationen, die massive KI-Modelle mit hunderten von Milliarden Parametern trainieren.
„Skalierung ist entscheidend“, betonte Salvator. „Es erfordert eine Kombination aus Rechenleistung und hervorragender Vernetzung. Eine schnellere Bereitstellung führt zu schnelleren Inferenzvorgängen, was es Organisationen ermöglicht, schneller Wert zu generieren.“
Branchenanalysten sehen diese Expansion als strategischen Schritt von Oracle, um den Wettbewerb im KI-Cloud-Markt zu intensivieren, der derzeit von Amazon Web Services, Microsoft Azure und Google Cloud dominiert wird. Durch die Nutzung seiner Zusammenarbeit mit Nvidia positioniert sich Oracle als starke Option für Unternehmen, die groß angelegte KI-Lasten implementieren möchten. Diese Partnerschaft bietet Nvidia zudem eine zusätzliche Cloud-Plattform, um seine hochmodernen GPU-Technologien im Unternehmensbereich zu präsentieren.
Zugang zu KI für Unternehmen aller Größen erweitern
Während KI weiterhin Branchen umgestaltet, verschärft sich der Wettbewerb unter den Cloud-Anbietern, robuste und flexible KI-Infrastrukturen anzubieten. Die neuesten Angebote von Oracle verdeutlichen sein Engagement, in diesem dynamischen Umfeld wettbewerbsfähig zu bleiben.
Diese neuen Optionen eröffnen Unternehmen die Möglichkeit, ihre Investitionen in KI-Infrastruktur zu optimieren, was potenziell die Barrieren für kleinere Organisationen senkt und gleichzeitig den Anforderungen von Unternehmen mit anspruchsvollen Arbeitslasten gerecht wird.
Leung fasste zusammen: „Als Cloud-Anbieter möchten wir alle Kundentypen bedienen – von Technologiegiganten, die massive Modelle hosten, bis hin zu kleinen Engineering-Teams, die spezialisierte Anwendungen entwickeln.“
Mit dieser Ankündigung bekräftigt Oracle seine KI-Ambitionen und positioniert sich für intensiveren Wettbewerb im KI-Cloud-Markt.