A Microsoft está aprimorando sua infraestrutura de computação com o lançamento de dois novos chips desenvolvidos internamente para empresas: Azure Maia 100 e Azure Cobalt 100.
Apresentados na conferência Microsoft Ignite 2023 em Seattle, esses chips visam fornecer soluções de computação eficientes, escaláveis e sustentáveis, aproveitando os últimos avanços em tecnologia de nuvem e IA. O Azure Maia 100 funciona como um acelerador de IA da Microsoft, projetado especificamente para o treinamento e a inferência de cargas de trabalho de IA generativa na nuvem. Por outro lado, o Azure Cobalt 100 é um chip baseado em Arm otimizado para cargas de trabalho de uso geral, priorizando alta eficiência. Ambos os chips serão integrados no ecossistema Azure, começando pelos próprios data centers da Microsoft, e apoiarão os serviços Copilot e Azure OpenAI.
Scott Guthrie, vice-presidente executivo do Cloud + AI Group da Microsoft, destacou o compromisso da empresa em otimizar cada camada de sua infraestrutura para melhorar o desempenho, diversificar a cadeia de suprimentos e oferecer aos clientes opções de infraestrutura flexíveis.
O que podemos esperar do Azure Maia e Cobalt? Embora métricas específicas de desempenho ainda não estejam disponíveis, o chip Maia é projetado para gerenciar algumas das maiores cargas de trabalho de IA no Microsoft Azure, abrangendo desde o treinamento de modelos de linguagem avançados até a realização de tarefas de inferência. Sua arquitetura é adaptada para a pilha de hardware do Azure, garantindo uma utilização ideal durante cargas de trabalho exigentes.
A Microsoft desenvolveu o chip Maia em colaboração com a OpenAI, refinando seu design com base no feedback de testes com os modelos da OpenAI. Sam Altman, CEO da OpenAI, comentou sobre o impacto da colaboração no avanço das capacidades de IA do Azure e na redução de custos para os clientes.
Quanto ao Cobalt, embora as informações sejam limitadas, está claro que este chip se concentrará em cargas de trabalho de uso geral com eficiência energética no Azure. Com sua arquitetura baseada em Arm, o Cobalt foi projetado para maximizar o desempenho por watt, oferecendo maior poder computacional para cada unidade de energia consumida. Wes McCullough, vice-presidente corporativo de desenvolvimento de produtos de hardware da Microsoft, ressaltou que o design arquitetônico prioriza a eficiência energética, resultando em ganhos significativos nos data centers da Microsoft.
Ambos os chips serão instalados em placas de servidor personalizadas dentro de racks especialmente projetados, garantindo integração perfeita nos data centers existentes. O rack Maia apresenta "ajudantes" inovadores que circulam líquido frio para evitar superaquecimento durante o uso intensivo de energia.
Além disso, a Microsoft está expandindo suas integrações com parceiros, lançando uma prévia da nova série de máquinas virtuais NC H100 v5, projetadas para GPUs Nvidia H100 Tensor Core, com planos de incluir GPUs Nvidia H200 e VMs aceleradas AMD MI300X no Azure para aprimorar o processamento de cargas de trabalho de IA.
Essa estratégia oferece aos clientes da Microsoft diversas opções personalizadas para atender às suas necessidades de desempenho e custo. Os novos chips estão programados para serem lançados em 2024, com o desenvolvimento de uma segunda geração já em andamento.