AWS hat eine innovative Lösung für Entwickler im Bereich maschinelles Lernen eingeführt, die zuverlässige Rechenressourcen benötigen. Mit der Einführung von Amazon EC2 Capacity Blocks für maschinelles Lernen können Nutzer GPU-Kapazitäten gezielt für das Training und die Bereitstellung von generativer KI und großen Sprachmodellen reservieren. Dieser Service funktioniert wie ein Hotelbuchungssystem und ermöglicht es Kunden, ihre Anforderungen anzugeben, wie zum Beispiel die Anzahl der GPU-Instanzen und die benötigte Dauer. Dieses Vorgehen stellt sicher, dass Projekte im Bereich maschinelles Lernen ohne Unterbrechungen fortschreiten können, ohne durch einen Mangel an Rechenleistung eingeschränkt zu sein.
Mit diesem neuen Angebot können Unternehmen ihre Modelle effizient trainieren oder feinabstimmen, Experimente durchführen oder den Service bei Bedarf für Notfallwiederherstellungen nutzen. Channy Yun, Principal Developer Advocate bei AWS, betonte: „Sie können EC2 Capacity Blocks nutzen, wenn Sie eine garantierte Kapazität benötigen, um Modelle für maschinelles Lernen zu trainieren oder fein abzustimmen, Experimente durchzuführen oder zukünftige Nachfrageanstiege zu planen.“
Derzeit steht der Service für Amazon EC2 P5-Instanzen zur Verfügung, die mit Nvidia H100 Tensor Core GPUs betrieben werden. Kunden in der AWS-Region U.S. East können von diesem Service profitieren. Die Preisstruktur ist dynamisch und wird von Angebot und Nachfrage beeinflusst, wodurch Nutzer die Flexibilität haben, GPU-Instanzblöcke für einen Zeitraum von einem bis 14 Tagen oder manchmal bis zu acht Wochen im Voraus zu erwerben.
Dieser Schritt in den GPU-Vermietungsmarkt spiegelt einen größeren Trend wider, da verschiedene Unternehmen die wachsende Nachfrage nach Hochleistungsrechnerlösungen nutzen möchten. So plant NexGen Cloud die Einführung eines „AI Supercloud“-Services, der Entwicklern das Mieten von Ressourcen für das Modelltraining ermöglicht. Darüber hinaus hat Hugging Face Anfang dieses Jahres eine Lösung namens Training Cluster as a Service vorgestellt, und die US-Regierung hat die Mietpreise für ihren Perlmutter-Supercomputer erheblich gesenkt.
Im wettbewerbsintensiven Markt der KI-Chip-Produktion bleibt Nvidia der Vorreiter. Allein im zweiten Quartal versendete Nvidia rund 900 Tonnen H100 GPUs, während Wettbewerber wie AMD, IBM und SambaNova aktiv daran arbeiten, in diesem sich schnell entwickelnden Markt Boden gutzumachen.