Lanzamiento del Último Poder de Cómputo AI de AMD y Respuesta del Mercado
El 11 de octubre, AMD celebró un evento de lanzamiento centrado en la inteligencia artificial, donde presentó varios productos nuevos, destacando el chip de cómputo MI325X. Construido sobre la arquitectura CDNA 3, este chip representa una actualización importante a medio plazo, similar al MI300X. El MI325X cuenta con impresionantes 256GB de memoria HBM3e y alcanza un ancho de banda de memoria de hasta 6TB por segundo. AMD planea iniciar la producción en el cuarto trimestre y anticipa suministrarlo a través de proveedores de servidores asociados a principios del próximo año.
AMD busca que sus aceleradores sobresalgan en la generación de contenido y la inferencia dentro de las aplicaciones de IA, en lugar de enfocarse solo en el entrenamiento de modelos de datos a gran escala. El diseño de la memoria de alta velocidad de AMD posiciona a sus chips para superar a los de Nvidia en escenarios específicos. Mientras que el último chip B200 de Nvidia presenta 192GB de memoria HBM3e con un ancho de banda de 8TB por segundo, la Dra. Lisa Su de AMD destacó que el MI325 superó al H200 de Nvidia en un 40% en la prueba de referencia Llama 3.1.
Documentos oficiales indican que el MI325 tiene especificaciones superiores en rendimiento teórico pico de cómputo FP16 y FP8. AMD también anunció planes para lanzar la serie MI350 de GPU el próximo año, basada en la arquitectura CDNA 4. Esta serie incluirá 288GB de memoria HBM3e, aprovechará un proceso de 3nm, y mejorará el rendimiento de FP16 y FP8 en un 80%, junto con un aumento de 35 veces en el rendimiento de inferencia en comparación con CDNA 3. Se espera que la plataforma de GPU MI355X debute en la segunda mitad del próximo año, compitiendo directamente con la arquitectura BlackWell de Nvidia.
La Dra. Su señaló que se espera que el mercado de aceleradores de IA en centros de datos alcance los $500 mil millones para 2028, un aumento considerable desde los $45 mil millones en 2023. A pesar de este panorama positivo, los analistas estiman que Nvidia controla más del 90% del mercado de chips de IA, lo que contribuye a su margen bruto del 75%. Como resultado, el precio de las acciones de AMD experimentó una notable disminución después del evento, mientras que las acciones de Nvidia se dispararon casi un 180%.
Actualmente, la principal fuente de ingresos de AMD en el sector de centros de datos sigue siendo la venta de CPU. En su reciente informe financiero, AMD reportó que las ventas en centros de datos se duplicaron interanualmente, alcanzando los $2.8 mil millones, mientras que las ventas de chips de IA contribuyeron solo con $1 mil millones. AMD posee aproximadamente el 34% de la participación de mercado en CPUs para centros de datos. Además, la compañía presentó sus CPUs de servidor EPYC "Turing" de quinta generación, que van de 8 a 192 núcleos, afirmando que el EPYC 9965 supera al Intel Xeon 8592+ en múltiples métricas de rendimiento.
Para reforzar aún más sus capacidades tecnológicas, AMD invitó a Kevin Salvadore, Vicepresidente de Infraestructura e Ingeniería en Meta, quien reveló que ya se han desplegado más de 1.5 millones de CPUs EPYC. Esta colaboración destaca la expansión continua y el potencial de crecimiento de AMD en el ámbito de los centros de datos.