Am Mittwoch betonte Nvidia-CEO Jensen Huang in der Telefonkonferenz zum Q1 2025 die rasante Expansion von Startups im Bereich der generativen KI (GenAI), die Nvidias beschleunigte Computing-Plattform nutzen. „Es gibt etwa 15.000 bis 20.000 generative KI-Startups in verschiedenen Bereichen wie Multimedia, digitale Charaktere, Design, Anwendungsproduktivität und digitale Biologie“, bemerkte Huang. Er hob den bedeutsamen Wandel der Automobilindustrie hervor, die zunehmend auf Nvidia setzt, um umfassende Modelle zum Training autonomer Fahrzeugsysteme zu entwickeln.
Huang betonte die „unglaubliche“ Nachfrage nach Nvidias GPUs, da verschiedene Sektoren, darunter Internet Verbraucher, Unternehmen, Cloud-Computing, Automotive und Gesundheitswesen, massiv in „KI-Fabriken“ investieren, die auf Tausenden von Nvidia GPUs basieren. Er erklärte, dass der Übergang zur generativen KI einen grundlegenden „Wandel der vollintegrierten Computer-Plattform“ markiert, der von reiner Informationsbeschaffung hin zur Generierung intelligenter Ergebnisse führt. „[Der Computer] erzeugt jetzt kontextuell relevante, intelligente Antworten“, so Huang, und prognostizierte eine Transformation der Computing-Architekturen weltweit, die sogar Desktop-Systeme beeinflussen wird.
Um der steigenden Nachfrage gerecht zu werden, begann Nvidia im Q1 mit dem Versand seiner H100 „Hopper“-Architektur GPUs und kündigte die bevorstehende „Blackwell“-Plattform an, die eine 4 bis 30 Mal schnellere KI-Training und -Inference als ihr Vorgänger bietet. Über 100 Blackwell-Systeme führender Computerhersteller werden in diesem Jahr erwartet, um eine breite Akzeptanz zu fördern.
Huang unterstrich, dass Nvidias umfassende KI-Plattform einen erheblichen Wettbewerbsvorteil gegenüber engeren Lösungen bietet, während sich die AI-Arbeitslasten weiterentwickeln. Er erwartet, dass die Nachfrage nach Nvidias Hopper-, Blackwell- und zukünftigen Architekturen die Versorgung im nächsten Jahr angesichts des GenAI-Booms übersteigen wird.
Trotz eines Rekordumsatzes von 26 Milliarden US-Dollar im Q1 sieht sich Nvidia einer Nachfrage gegenüber, die die Fähigkeit zur Lieferung von AI-GPUs weit übersteigt. „Wir sind jeden einzelnen Tag im Wettlauf“, bemerkte Huang und reflektierte den unaufhörlichen Druck, Bestellungen zu erfüllen. Er erkannte an, dass die Nachfrage nach der Flaggschiff H100 GPU weiterhin die Verfügbarkeit übersteigen wird, auch wenn die Produktion der Blackwell-Architektur hochgefahren wird.
Huang wies auf den Wettbewerbsvorteil hin, den Unternehmen erlangen, die als erste mit innovativen KI-Modellen auf den Markt treten, und sagte: „Das nächste Unternehmen, das die nächste große Stufe erreicht, kann eine bahnbrechende KI ankündigen.“ Die Dringlichkeit ist spürbar, da Cloud-Anbieter und KI-Startups versuchen, GPU-Kapazitäten zu sichern, um den Wettbewerbern voraus zu sein. Er prognostiziert, dass der Angebotsengpass bis weit ins Jahr 2024 anhalten wird.
Huang erklärte, wie Cloud-Anbieter signifikante finanzielle Erträge erzielen können, indem sie KI-Modelle auf Nvidias Plattformen hosten. „Für jeden Dollar, der in Nvidias KI-Infrastruktur investiert wird, können Cloud-Anbieter über vier Jahre hinweg fünf Dollar an Hosting-Einnahmen erzielen“, führte er aus.
Er illustrierte dies mit einem Beispiel eines Sprachmodells mit 70 Milliarden Parametern, das Nvidias neueste H200 GPUs verwendet: Ein einzelner Server kann 24.000 Token pro Sekunde generieren und 2.400 gleichzeitige Nutzer unterstützen. „Das bedeutet, dass für jeden Dollar, der für Nvidia H200-Server ausgegeben wird, ein API-Anbieter über vier Jahre hinweg sieben Dollar an Einnahmen erzielen kann“, erklärte Huang.
Die laufenden Softwareverbesserungen von Nvidia steigern auch die Inferenzleistung seiner GPUs und bringen eine Verdreifachung der Geschwindigkeit bei der H100, wodurch die Kosten für Kunden gesenkt werden. Diese außergewöhnliche Kapitalrendite treibt die Nachfrage von großen Cloud-Anbietern wie Amazon, Google, Meta, Microsoft und Oracle an, da sie um die Erweiterung ihrer KI-Kapazitäten und die Gewinnung von Entwicklern konkurrieren.
Während Nvidia für seine GPUs bekannt ist, setzt das Unternehmen auch einen bedeutenden Akzent im Bereich der Datacenter-Netzwerk mit seiner Infiniband-Technologie. Im Q1 verzeichnete Nvidia ein starkes Wachstum im Netzwerkbereich, das durch die gestiegene Infiniband-Nutzung angekurbelt wurde. Huang identifizierte Ethernet als eine große Chance für Nvidia, mit dem Launch seiner Spectrum-X-Plattform, die für KI-Arbeitslasten über Ethernet optimiert ist. „Spectrum-X eröffnet Nvidia Networking einen völlig neuen Markt und ermöglicht Ethernet-only Datacenter, großflächige KI zu unterstützen“, sagte er und erwartete, dass es innerhalb eines Jahres zu einer Multi-Milliarden-Dollar-Produkten entwickeln wird.
Die Rekordzahlen im Q1 von Nvidia wurden durch außergewöhnliche Leistungen in den Segmenten Data Center und Gaming angetrieben, wobei der Gesamtumsatz auf 26 Milliarden Dollar anstieg – ein sequenzieller Anstieg von 18 % und ein Anstieg von 262 % im Jahresvergleich. Das Geschäft im Data Center war der Haupttreiber des Wachstums und erzielte 22,6 Milliarden Dollar mit einem unglaublichen Anstieg von 427 % im Vergleich zum Vorjahr. CFO Colette Kress bemerkte, dass der Umsatz im Bereich Computing mehr als fünfmal und der Umsatz im Networking mehr als dreimal im Vergleich zum letzten Jahr gewachsen ist.
Die Einnahmen aus dem Gaming-Segment beliefen sich auf 2,65 Milliarden Dollar, was einem saisonalen Rückgang von 8 % entspricht, aber einem Anstieg von 18 % im Jahresvergleich. Auch die Einnahmen aus Professional Visualization und Automotive zeigten eine positive Entwicklung im Jahresvergleich.
Für das Q2 prognostiziert Nvidia Einnahmen von rund 28 Milliarden Dollar, plus oder minus 2 %, mit voraussichtlichem sequenziellen Wachstum über alle Marktplattformen.
Die Nvidia-Aktie stieg im nachbörslichen Handel um 5,9 % auf 1.005,75 Dollar, nachdem die 10-für-1-Aktienaufspaltung angekündigt wurde.