A AMD Lança Chip de IA para Competir com a NVIDIA; Projeções de Mercado Preveem Crescimento de $500 Bilhões em Quatro Anos

Lançamento do Novo Poder de Computação em IA da AMD e Resposta do Mercado

No dia 11 de outubro, a AMD realizou um evento de lançamento focado em inteligência artificial, apresentando vários novos produtos, com o chip de computação MI325X como destaque. Baseado na arquitetura CDNA 3, este chip representa uma atualização significativa a médio prazo, semelhante ao MI300X. O MI325X possui impressionantes 256 GB de memória HBM3e e alcança uma largura de banda de até 6 TB por segundo. A AMD planeja iniciar a produção no quarto trimestre e prevê fornecer o chip por meio de parceiros de servidores no início do próximo ano.

A AMD busca que seus aceleradores se destaquem na geração de conteúdo e inferência em aplicações de IA, em vez de apenas lidar com o treinamento de grandes modelos de dados. O design da memória de alta largura de banda da AMD posiciona seus chips para superar os da Nvidia em cenários específicos. Embora o mais recente chip B200 da Nvidia apresente 192 GB de memória HBM3e com uma largura de banda de 8 TB por segundo, a Dra. Lisa Su, da AMD, destacou que o MI325 superou o H200 da Nvidia em 40% no teste de benchmark Llama 3.1.

Documentos oficiais indicam que o MI325 possui especificações superiores em desempenho de computação teórica em pico FP16 e FP8. A AMD também anunciou planos para lançar a série MI350 de GPUs no próximo ano, baseada na arquitetura CDNA 4. Esta série incluirá 288 GB de memória HBM3e, utilizará um processo de 3nm e aumentará o desempenho FP16 e FP8 em 80%, além de um aumento de 35 vezes no desempenho de inferência em comparação com a CDNA 3. A plataforma de GPU MI355X deve ser lançada na segunda metade do próximo ano, competindo diretamente com a arquitetura BlackWell da Nvidia.

A Dra. Su apontou que o mercado de aceleradores de IA em data centers deve alcançar US$ 500 bilhões até 2028, um crescimento em relação aos US$ 45 bilhões de 2023. Apesar desse panorama positivo, analistas estimam que a Nvidia controla mais de 90% do mercado de chips de IA, contribuindo para uma margem bruta de 75%. Como resultado, as ações da AMD apresentaram uma queda significativa após o evento, enquanto as ações da Nvidia dispararam quase 180%.

Atualmente, a principal fonte de receita da AMD no setor de data centers continua sendo as vendas de CPUs. Em seu recente relatório financeiro, a AMD informou que as vendas de data centers dobraram em relação ao ano anterior, totalizando US$ 2,8 bilhões, com as vendas de chips de IA contribuindo com apenas US$ 1 bilhão. A AMD detém aproximadamente 34% do market share de CPUs em data centers. Além disso, a empresa lançou suas CPUs de servidor EPYC "Turing" de quinta geração, variando de 8 a 192 núcleos, afirmando que a EPYC 9965 supera o Xeon 8592+ da Intel em várias métricas de desempenho.

Para reforçar ainda mais suas capacidades tecnológicas, a AMD convidou Kevin Salvadore, Vice-Presidente de Infraestrutura e Engenharia da Meta, que revelou que mais de 1,5 milhão de CPUs EPYC já foram implementadas. Essa colaboração destaca a expansão contínua e o potencial de crescimento da AMD no setor de data centers.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles