Les analystes révèlent que les revenus de Nvidia dans le secteur des data centers ont quadruplé par rapport aux niveaux précédents au troisième trimestre.

Nvidia a réalisé un impact considérable dans l'industrie des semi-conducteurs en expédiant près d'un demi-million de GPU H100 et A100 au troisième trimestre de cette année. Cette performance remarquable se traduit par des revenus impressionnants de 14,5 milliards de dollars issus des centres de données, représentant une augmentation quasi quadruple par rapport au même trimestre de l'année précédente. Cette croissance est détaillée dans un récent rapport de marché de Vlad Galabov et Manoj Sukumaran, analystes éminents chez Omdia, une société de recherche spécialisée dans les insights sur le cloud et les centres de données.

La majorité des expéditions de serveurs GPU au T3 étaient destinées aux fournisseurs de services cloud hyperscale, avec Meta se distinguant comme l'un des plus grands clients de Nvidia. Microsoft a également passé des commandes importantes de GPU H100, probablement pour soutenir son éventail croissant de produits d'IA et de Copilots. D'autres clients majeurs incluent Google, Amazon, Oracle et Tencent, ce dernier faisant face à des défis en raison de restrictions strictes sur les exportations par l'administration Biden, limitant l'accès aux GPU H100. Les analystes d'Omdia prévoient que les expéditions de GPU par Nvidia dépasseront les 500 000 d'ici la fin du Q4, soutenues par une demande soutenue pour des matériels robustes.

Cependant, de nombreux fabricants de serveurs, tels que Dell, Lenovo et HPE, subissent des retards dans la satisfaction de leurs commandes de serveurs H100. Ces retards sont dus à une allocation insuffisante de GPU de la part de Nvidia, entraînant des délais d'attente estimés entre 36 et 52 semaines.

Dynamiques du marché

Galabov et Sukumaran prévoient que le marché des serveurs atteindra un chiffre d'affaires impressionnant de 195,6 milliards de dollars d'ici 2027, plus du double par rapport à une décennie plus tôt. Cette croissance est alimentée par une dépendance accrue aux processeurs de serveur et aux coprocesseurs, alors que les organisations s'orientent vers une informatique hyper hétérogène—des configurations de serveur optimisées pour des applications spécifiques utilisant plusieurs coprocesseurs.

Pour les tâches d'entraînement et d'inférence en IA, les configurations de serveurs leaders incluent le serveur Nvidia DGX, équipé de huit GPU H100/A100, et les serveurs d'Amazon conçus pour l'inférence IA, dotés de 16 coprocesseurs sur mesure appelés Inferentia 2. Dans le domaine de la transcodification vidéo, le serveur de Google avec 20 unités de codage vidéo (VCU) et celui de Meta avec 12 processeurs vidéo évolutifs sont devenus des références sur le marché.

Les auteurs ont noté : « Nous anticipons que cette tendance va croître, car la demande pour certaines applications a atteint une échelle qui rend financièrement avantageux le développement de processeurs personnalisés optimisés. » Ils ont souligné qu'alors que les secteurs des médias et de l'IA profitent actuellement de l'informatique hyper hétérogène, d'autres domaines, tels que les bases de données et les services web, devraient adopter des stratégies d'optimisation similaires prochainement.

Croissance de l'infrastructure

Selon les résultats d'Omdia, l'essor de ces serveurs avancés pour les applications IA propulse la croissance de l'infrastructure physique des centres de données. Par exemple, les revenus liés à la distribution d'alimentation en rack ont grimpé de 17 % au premier semestre de l'année par rapport à l'année précédente, légèrement au-dessus de la prévision de croissance de 14 % d'Omdia. De plus, les revenus de gestion thermique des centres de données devraient enregistrer une augmentation de 17 % en 2023, propulsée par des densités de rack plus élevées nécessitant des solutions de refroidissement liquide innovantes.

Avec l'expansion des services professionnels pour l'IA générative, facilitant une adoption accrue des entreprises en 2024 et au-delà, les auteurs ont suggéré que la principale contrainte sur le rythme actuel de mise en œuvre de l'IA pourrait être la disponibilité d'énergie. Ils ont souligné que leurs prévisions restent inchangées par des contraintes de financement et ont mis en évidence une tendance intrigante : les entreprises tirent de plus en plus parti des GPU prisés comme forme de garantie pour la dette.

Ce panorama souligne le rôle essentiel de matériels innovants et de configurations de serveurs optimisées dans l'évolution continue des centres de données, surtout alors que la demande pour les capacités d'IA continue d'escalader dans divers secteurs.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles