Los analistas revelan que los ingresos de Nvidia en centros de datos se dispararon a cuatro veces sus niveles anteriores en el tercer trimestre.

Nvidia ha tenido un impacto significativo en la industria de fabricación de chips al enviar casi medio millón de GPUs H100 y A100 en el tercer trimestre de este año. Este logro impresionante se traduce en $14.5 mil millones en ingresos provenientes de centros de datos, lo que representa un aumento casi cuatro veces mayor en comparación con el mismo trimestre del año pasado. Este crecimiento se detalla en un reciente Informe de Panorama de Mercado de Vlad Galabov y Manoj Sukumaran, analistas líderes de Omdia, una firma de investigación especializada en la nube y las perspectivas de centros de datos.

La mayoría de los envíos de servidores GPU en el tercer trimestre se dirigieron a proveedores de servicios en la nube hiperescalables, siendo Meta uno de los principales clientes de Nvidia. Microsoft también realizó pedidos sustanciales de GPUs H100, probablemente para respaldar su creciente gama de productos de IA y Copilotos. Otros clientes destacados incluyen a Google, Amazon, Oracle y Tencent, este último enfrentando desafíos debido a las estrictas restricciones de exportación de la administración Biden que limitan el acceso a las GPUs H100. Los analistas de Omdia pronostican que los envíos de GPUs de Nvidia superarán el medio millón para finales del cuarto trimestre, impulsados por la alta demanda continua de hardware robusto.

Sin embargo, muchos fabricantes de servidores, incluidos Dell, Lenovo y HPE, están experimentando retrasos en el cumplimiento de sus pedidos de servidores H100. Estos contratiempos se originan en la insuficiente asignación de GPUs por parte de Nvidia, lo que resulta en tiempos de espera estimados de 36 a 52 semanas.

Dinámicas del Mercado

Galabov y Sukumaran proyectan que el mercado de servidores alcanzará asombrosos $195.6 mil millones para 2027, más del doble que hace una década. Este crecimiento es impulsado por una creciente dependencia de procesadores y coprocesadores de servidores a medida que las organizaciones se trasladan hacia la computación hiperescalable, configuraciones de servidores optimizadas para aplicaciones específicas que utilizan múltiples coprocesadores.

Para tareas de entrenamiento e inferencia de IA, las configuraciones de servidores líderes incluyen el servidor Nvidia DGX, equipado con ocho GPUs H100/A100, y los servidores de Amazon diseñados para inferencia de IA, que cuentan con 16 coprocesadores personalizados conocidos como Inferentia 2. En el ámbito de la transcodificación de video, el servidor de Google con 20 unidades de codificación de video (VCUs) y el servidor de procesamiento de video de Meta con 12 procesadores de video escalables se han convertido en favoritos del mercado.

Los autores señalaron: “Anticipamos que esta tendencia crecerá, ya que la demanda de ciertas aplicaciones ha alcanzado una escala que hace financieramente beneficioso crear procesadores personalizados optimizados.” Resaltaron que, aunque los sectores de medios e IA están cosechando actualmente los beneficios de la computación hiperescalable, otros campos, como bases de datos y servicios web, probablemente adoptarán estrategias de optimización similares en un futuro cercano.

Crecimiento de Infraestructura

Según los hallazgos de Omdia, el auge de estos servidores avanzados para aplicaciones de IA está impulsando el crecimiento de la infraestructura física de centros de datos. Por ejemplo, los ingresos por distribución de energía en racks en la primera mitad del año aumentaron un 17% en comparación con el año anterior, ligeramente por encima del crecimiento anticipado del 14% de Omdia. Además, se espera que los ingresos por gestión térmica de centros de datos tengan un aumento del 17% en 2023, impulsados por mayores densidades en los racks que requieren soluciones innovadoras de refrigeración líquida.

A medida que los servicios profesionales para IA generativa se expanden, fomentando una mayor adopción empresarial en 2024 y más allá, los autores sugieren que la principal restricción en el ritmo actual de implementación de IA podría ser la disponibilidad de energía. Enfatizaron que su pronóstico no se ve obstaculizado por restricciones de financiamiento y destacaron una tendencia interesante: las empresas están aprovechando cada vez más las GPUs codiciadas como una forma de colateral para deudas.

Este panorama subraya el papel vital del hardware innovador y las configuraciones de servidores optimizadas en la evolución continua de los centros de datos, especialmente a medida que la demanda de capacidades de IA sigue escalando en diversos sectores.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles