Microsoft está mejorando su infraestructura computacional con el lanzamiento de dos nuevos chips diseñados internamente para empresas: Azure Maia 100 y Azure Cobalt 100. Presentados en la conferencia Microsoft Ignite 2023 en Seattle, estos chips tienen como objetivo proporcionar a las empresas soluciones de computación eficientes, escalables y sostenibles que aprovechan los últimos avances en tecnología de nube e inteligencia artificial.
El Azure Maia 100 actúa como un acelerador de IA de Microsoft, diseñado específicamente para el entrenamiento y la inferencia de cargas de trabajo de IA generativa en la nube. Por otro lado, el Azure Cobalt 100 es un chip basado en Arm optimizado para cargas de trabajo de propósito general, priorizando la alta eficiencia. Ambos chips se integrarán en el ecosistema de Azure, comenzando en los propios centros de datos de Microsoft, y darán soporte a Copilot y los servicios de Azure OpenAI.
Scott Guthrie, vicepresidente ejecutivo del Grupo Cloud + AI de Microsoft, enfatizó el compromiso de la compañía con la optimización de cada capa de su infraestructura para mejorar el rendimiento, diversificar su cadena de suministro y ofrecer a los clientes opciones de infraestructura flexibles.
¿Qué podemos esperar de Azure Maia y Cobalt?
Aunque aún no se disponen de métricas de rendimiento específicas, se prevé que el chip Maia gestione algunas de las cargas de trabajo de IA más grandes en Microsoft Azure, desde el entrenamiento de modelos de lenguaje avanzados hasta la ejecución de tareas de inferencia. Su arquitectura está diseñada para maximizar la utilización del hardware de Azure durante cargas de trabajo exigentes.
Microsoft desarrolló el chip Maia en colaboración con OpenAI, refinando su diseño con base en la retroalimentación obtenida de las pruebas realizadas con los modelos de OpenAI. Sam Altman, CEO de OpenAI, destacó el impacto de esta colaboración en el avance de las capacidades de IA de Azure y en la reducción de costos para los clientes.
En cuanto a Cobalt, aunque los detalles son limitados, es evidente que este chip se centrará en cargas de trabajo de propósito general y eficiencia energética en Azure. Con su arquitectura basada en Arm, Cobalt está diseñado para maximizar el rendimiento por vatio, ofreciendo mayor potencia computacional por cada unidad de energía consumida.
Wes McCullough, vicepresidente corporativo de desarrollo de productos de hardware en Microsoft, resaltó que el diseño arquitectónico prioriza la eficiencia energética, lo que podría traducirse en importantes mejoras generales en los centros de datos de Microsoft.
Ambos chips serán instalados en placas de servidor personalizadas dentro de racks diseñados especialmente, garantizando una integración fluida en los centros de datos existentes. El rack de Maia cuenta con innovadores "ayudantes" que circulan líquido frío para evitar el sobrecalentamiento durante el uso intenso de energía.
Además, Microsoft está ampliando sus integraciones de socios, lanzando una vista previa de la nueva serie de máquinas virtuales NC H100 v5, diseñada para GPUs Nvidia H100 Tensor Core, con planes para incluir GPUs Nvidia H200 y VMs aceleradas AMD MI300X en Azure para mejorar el procesamiento de cargas de trabajo de IA.
Esta estrategia ofrece a los clientes de Microsoft múltiples opciones personalizadas según sus necesidades de rendimiento y costo. Se prevé que los nuevos chips se lancen en 2024, con el desarrollo de una segunda generación ya en marcha.