AMD lance une puce AI pour rivaliser avec NVIDIA ; des prévisions de marché anticipent une croissance de 500 milliards de dollars en quatre ans.

Nouveaux Lancements d'AMD en Puissance de Calcul AI et Réaction du Marché

Le 11 octobre, AMD a organisé un événement de lancement axé sur l'intelligence artificielle, dévoilant plusieurs nouveaux produits, dont la puce de calcul MI325X. Basée sur l'architecture CDNA 3, cette puce représente une mise à niveau significative à moyen terme, similaire à la MI300X. Avec une mémoire HBM3e impressionnante de 256 Go et une bande passante pouvant atteindre 6 To par seconde, AMD prévoit de commencer la production au quatrième trimestre et de la fournir via des partenaires serveurs dès le début de l'année prochaine.

AMD vise à faire exceller ses accélérateurs dans la génération de contenu et l'inférence au sein des applications AI, au lieu de se limiter à l'entraînement de modèles de données à grande échelle. La conception de la mémoire à haute bande passante d’AMD permet à ses puces de surpasser celles de Nvidia dans des scénarios spécifiques. Bien que la dernière puce B200 de Nvidia possède 192 Go de mémoire HBM3e avec une bande passante de 8 To par seconde, Dr. Lisa Su d’AMD a souligné que la MI325 a surpassé la H200 de Nvidia de 40 % lors du test de référence Llama 3.1.

Les documents officiels indiquent que la MI325 présente des spécifications supérieures en termes de performances de calcul FP16 et FP8 théoriques de pointe. AMD a également annoncé le lancement de la série de GPU MI350 l'année prochaine, basée sur l'architecture CDNA 4. Cette série inclura 288 Go de mémoire HBM3e, utilisera un processus de 3 nm et augmentera de 80 % les performances FP16 et FP8, avec une multiplication par 35 de la performance en inference par rapport à CDNA 3. La plateforme GPU MI355X est attendue pour la deuxième moitié de l'année prochaine, rivalisant directement avec l'architecture BlackWell de Nvidia.

Dr. Su a noté que le marché des accélérateurs AI dans les centres de données devrait atteindre 500 milliards de dollars d'ici 2028, contre 45 milliards en 2023. Malgré cette perspective prometteuse, les analystes estiment que Nvidia contrôle plus de 90 % du marché des puces AI, ce qui contribue à sa marge brute de 75 %. En conséquence, l'action d'AMD a subi une nette baisse après l'événement, tandis que les actions de Nvidia ont grimpé de près de 180 %.

Actuellement, la principale source de revenus d'AMD dans le secteur des centres de données reste la vente de processeurs. Dans son dernier rapport financier, AMD a indiqué que les ventes dans ce secteur ont doublé d'une année sur l'autre, atteignant 2,8 milliards de dollars, les ventes de puces AI ne représentant qu'un milliard. AMD détient environ 34 % de la part de marché des CPU dans les centres de données. De plus, la société a présenté ses CPU serveurs EPYC de cinquième génération "Turing", allant de 8 à 192 cœurs, affirmant que l’EPYC 9965 surpasse le Xeon 8592+ d'Intel sur plusieurs indicateurs de performance.

Pour renforcer davantage ses capacités technologiques, AMD a invité Kevin Salvadore, Vice-Président de l'Infrastructure et de l'Ingénierie chez Meta, qui a révélé que plus de 1,5 million de CPU EPYC ont déjà été déployés. Cette collaboration met en lumière l'expansion continue et le potentiel de croissance d'AMD dans le domaine des centres de données.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles