Microsoft verbessert seine Computerinfrastruktur mit der Einführung zweier neuer eigener Chips für Unternehmen: Azure Maia 100 und Azure Cobalt 100. Diese wurden auf der Microsoft Ignite 2023 Konferenz in Seattle vorgestellt und bieten effiziente, skalierbare und nachhaltige Computing-Lösungen, um die neuesten Fortschritte in der Cloud-Technologie und KI zu nutzen.
Der Azure Maia 100 fungiert als KI-Beschleuniger von Microsoft, der speziell für das Cloud-basierte Training und die Inferenz generativer KI-Arbeitslasten entwickelt wurde. Im Gegensatz dazu ist der Azure Cobalt 100 ein Arm-basierter Chip, der auf allgemeine Arbeitslasten optimiert ist und hohe Effizienz priorisiert. Beide Chips werden in das Azure-Ökosystem integriert, beginnend in Microsofts eigenen Rechenzentren, um Copilot und Azure OpenAI-Dienste zu unterstützen.
Scott Guthrie, Executive Vice President der Cloud + AI Group von Microsoft, betonte das Engagement des Unternehmens, jede Ebene seiner Infrastruktur zu optimieren, um die Leistung zu steigern, die Lieferkette zu diversifizieren und den Kunden flexible Infrastrukturentscheidungen zu bieten.
Was dürfen wir von Azure Maia und Cobalt erwarten?
Obwohl spezifische Leistungsmetriken noch nicht verfügbar sind, wurde der Maia AI Chip entwickelt, um einige der größten KI-Belastungen auf Microsoft Azure zu verwalten, von der Schulung fortschrittlicher Sprachmodelle bis hin zur Durchführung von Inferenzaufgaben. Seine Architektur ist speziell auf den Azure-Hardware-Stack abgestimmt, um eine optimale Nutzung bei anspruchsvollen Arbeitslasten zu gewährleisten.
Microsoft entwickelte den Maia Chip in Zusammenarbeit mit OpenAI und verfeinert sein Design basierend auf Feedback aus Tests mit OpenAIs Modellen. Sam Altman, CEO von OpenAI, hob den Einfluss der Zusammenarbeit auf die Verbesserung der KI-Fähigkeiten von Azure und die Senkung der Kosten für Kunden hervor.
Was Cobalt betrifft, sind zwar noch wenige Details verfügbar, aber klar ist, dass dieser Chip auf energieeffiziente allgemeine Arbeitslasten auf Azure fokussiert ist. Mit seiner Arm-basierten Architektur ist Cobalt darauf ausgelegt, die Leistung pro Watt zu maximieren und somit eine höhere Rechenleistung für jeden verbrauchten Energieeinheit bereitzustellen.
Wes McCullough, Corporate Vice President der Hardware-Produktentwicklung bei Microsoft, betonte, dass das architektonische Design die Energieeffizienz priorisiert, was potenziell erhebliche Gesamtgewinne in den Rechenzentren von Microsoft zur Folge hat.
Beide Chips werden auf speziellen Server-Boards innerhalb eigens gestalteter Racks installiert, um eine nahtlose Integration in bestehende Rechenzentren zu gewährleisten. Das Maia Rack verfügt über innovative "Sidekicks", die kalte Flüssigkeit zirkulieren lassen, um Überhitzung während intensiver Nutzung zu vermeiden.
Darüber hinaus erweitert Microsoft seine Partnerintegrationen und startet eine Vorschau der neuen NC H100 v5 virtuellen Maschinen-Serie, die für Nvidia H100 Tensor Core GPUs konzipiert ist, mit Plänen zur Einbindung von Nvidia H200 GPUs und AMD MI300X beschleunigten VMs auf Azure zur Verbesserung der KI-Arbeitslastverarbeitung.
Diese Strategie bietet Microsoft-Kunden mehrere Optionen, die auf ihre Leistungs- und Kostenbedürfnisse abgestimmt sind. Die neuen Chips sollen 2024 eingeführt werden, wobei die Entwicklung einer zweiten Generation bereits im Gange ist.