A Nvidia teve um impacto significativo na indústria de fabricação de chips, enviando quase meio milhão de GPUs H100 e A100 no terceiro trimestre deste ano. Essa conquista notável resultou em impressionantes $14,5 bilhões em receita proveniente de centros de dados, o que representa um aumento quase quatro vezes maior em comparação ao mesmo trimestre do ano passado. Esse crescimento é detalhado em um recente Relatório de Panorama de Mercado, elaborado por Vlad Galabov e Manoj Sukumaran, analistas líderes da Omdia, uma empresa de pesquisa especializada em nuvem e insights de centros de dados.
A maior parte dos envios de servidores GPU no Q3 foi direcionada a provedores de serviços de nuvem em grande escala, com a Meta se destacando como um dos maiores clientes da Nvidia. A Microsoft também fez pedidos substanciais de GPUs H100, provavelmente para apoiar sua crescente gama de produtos de IA e Copilotos. Outros principais clientes incluem Google, Amazon, Oracle e Tencent, este último enfrentando desafios devido a estritas restrições de exportação do governo Biden, que limitam o acesso às GPUs H100. Os analistas da Omdia preveem que os envios de GPUs da Nvidia vão ultrapassar meio milhão até o final do Q4, impulsionados pela alta demanda contínua por hardware robusto.
No entanto, muitos fabricantes de servidores, incluindo Dell, Lenovo e HPE, estão enfrentando atrasos no cumprimento de seus pedidos de servidores H100. Esses contratempos decorrem de alocações insuficientes de GPUs por parte da Nvidia, resultando em tempos de espera estimados entre 36 e 52 semanas.
Dinâmica de Mercado
Galabov e Sukumaran projetam que o mercado de servidores atingirá impressionantes $195,6 bilhões até 2027, mais que o dobro em relação a uma década atrás. Esse crescimento é impulsionado pela crescente dependência de processadores e coprocessadores de servidores à medida que as organizações adotam a computação hiper-heterogênea—configurações de servidores otimizadas para aplicativos específicos que utilizam múltiplos coprocessadores.
Para tarefas de treinamento e inferência em IA, as principais configurações de servidores incluem o servidor Nvidia DGX, equipado com oito GPUs H100/A100, e os servidores da Amazon adaptados para inferência em IA, que apresentam 16 coprocessadores projetados sob medida, conhecidos como Inferentia 2. No campo da transcodificação de vídeo, o servidor do Google com 20 unidades de codificação de vídeo (VCUs) e o servidor de processamento de vídeo da Meta, com 12 processadores de vídeo escaláveis, despontam como favoritos do mercado.
Os autores observaram: “Antecipamos que essa tendência crescerá, à medida que a demanda por certos aplicativos alcance uma escala que torna financeiramente benéfico criar processadores personalizados otimizados.” Eles destacaram que, embora os setores de mídia e IA estejam colhendo os benefícios da computação hiper-heterogênea, outras áreas, como bancos de dados e serviços web, provavelmente adotarão estratégias de otimização semelhantes em um futuro próximo.
Crescimento da Infraestrutura
De acordo com as descobertas da Omdia, o surgimento desses servidores avançados para aplicações de IA está impulsionando o crescimento da infraestrutura física de centros de dados. Por exemplo, a receita de distribuição de energia em rack no primeiro semestre do ano cresceu 17% em comparação ao ano anterior, ligeiramente acima da previsão de crescimento de 14% da Omdia. Além disso, a receita de gerenciamento térmico de centros de dados está a caminho de um aumento de 17% em 2023, impulsionada por maiores densidades de rack que exigem soluções inovadoras de refrigeração líquida.
À medida que os serviços profissionais para IA generativa se expandem, promovendo uma maior adoção empresarial em 2024 e além, os autores sugeriram que a principal limitação para o atual ritmo de implementação de IA pode ser a disponibilidade de energia. Eles enfatizaram que sua previsão continua desimpedida por restrições de financiamento e destacaram uma tendência intrigante: as empresas estão cada vez mais utilizando GPUs procuradas como forma de colateral para empréstimos.
Esse cenário ressalta o papel vital do hardware inovador e de configurações de servidores otimizadas na evolução contínua dos centros de dados, especialmente à medida que a demanda por capacidades de IA continua a escalar em diversos setores.