AMD präsentiert neueste AI-Computing-Power und Marktreaktionen
Am 11. Oktober veranstaltete AMD ein Launch-Event mit Fokus auf künstliche Intelligenz und stellte mehrere neue Produkte vor, wobei der MI325X Computing-Chip im Mittelpunkt stand. Basierend auf der CDNA 3-Architektur stellt dieser Chip ein bedeutendes Zwischenupgrade dar, ähnlich dem MI300X. Der MI325X verfügt über beeindruckende 256GB HBM3e-Speicher und erreicht eine Speichergeschwindigkeit von bis zu 6TB pro Sekunde. AMD plant, die Produktion im vierten Quartal zu starten und möchte den Chip Anfang nächsten Jahres über Partner-Serveranbieter bereitstellen.
AMD möchte, dass seine Beschleuniger in der Inhaltsgenerierung und Inferenz von AI-Anwendungen herausragende Leistungen erbringen, anstatt lediglich große Datenmodelle zu trainieren. Das Design von AMDs Hochbandbreitenspeicher ermöglicht es den Chips, in bestimmten Szenarien Nvidia zu übertreffen. Während Nvidias neuester B200-Chip 192GB HBM3e-Speicher mit einer Bandbreite von 8TB pro Sekunde bietet, betonte AMDs Dr. Lisa Su, dass der MI325 in dem Llama 3.1-Benchmark-Test die Leistung von Nvidias H200 um 40% übertraf.
Offizielle Dokumente zeigen, dass der MI325 überlegene Spezifikationen in der theoretischen Spitzenleistung für FP16- und FP8-Berechnungen aufweist. Zudem kündigte AMD die Einführung der MI350-Serie GPU für das nächste Jahr an, basierend auf der CDNA 4-Architektur. Diese Serie wird 288GB HBM3e-Speicher umfassen, einen 3nm-Prozess nutzen und die FP16- und FP8-Leistung um 80% steigern, während die Inferenzleistung im Vergleich zu CDNA 3 um das 35-fache zunehmen soll. Die MI355X-GPU-Plattform wird voraussichtlich in der zweiten Jahreshälfte debütieren und in direkter Konkurrenz zu Nvidias BlackWell-Architektur stehen.
Dr. Su wies darauf hin, dass der Markt für AI-Beschleuniger in Rechenzentren bis 2028 auf 500 Milliarden Dollar anwachsen soll, im Vergleich zu 45 Milliarden Dollar im Jahr 2023. Trotz dieser positiven Aussichten schätzen Analysten, dass Nvidia über 90% des AI-Chip-Marktes kontrolliert, was zur Bruttomarge von 75% beiträgt. Folglich erlebte AMDs Aktienkurs nach der Veranstaltung einen bemerkenswerten Rückgang, während Nvidias Aktien um fast 180% stiegen.
Derzeit bleibt der Hauptumsatz von AMD im Rechenzentrumssektor der Verkauf von CPUs. In ihrem aktuellen Finanzbericht gab AMD bekannt, dass die Verkaufszahlen im Rechenzentrumssegment im Vergleich zum Vorjahr auf 2,8 Milliarden Dollar verdoppelt wurden, wobei die AI-Chip-Verkäufe nur 1 Milliarde Dollar ausmachten. AMD hält etwa 34% des Marktanteils für CPUs in Rechenzentren. Darüber hinaus stellte das Unternehmen seine EPYC "Turing" Server-CPUs der fünften Generation vor, die von 8 bis 192 Kernen reichen, und behauptete, dass der EPYC 9965 Intel's Xeon 8592+ in mehreren Leistungsmetriken übertreffe.
Um seine technologischen Fähigkeiten weiter zu untermauern, lud AMD Kevin Salvadore, Vizepräsident für Infrastruktur und Engineering bei Meta, ein, der enthüllte, dass bereits über 1,5 Millionen EPYC-CPUs eingesetzt wurden. Diese Zusammenarbeit unterstreicht AMDs kontinuierliche Expansion und Wachstumspotenzial im Bereich der Rechenzentren.