Microsoftが新しいエンタープライズAIチップ「マイア」と「コバルト」を発表

Microsoftは、企業向けに新たに開発した2つのチップ、Azure Maia 100とAzure Cobalt 100を発表し、コンピューティングインフラを強化しています。これらのチップは、2023年シアトルで開催されたMicrosoft Ignite 2023カンファレンスで明らかにされ、最新のクラウド技術とAIの進展を活用するための効率的、スケーラブル、持続可能なコンピューティングソリューションを企業に提供することを目指しています。

Azure Maia 100は、ジェネレーティブAIのトレーニングと推論のために特化したMicrosoftのAIアクセラレーターです。一方、Azure Cobalt 100は、高効率を重視した汎用ワークロード向けに最適化されたArmベースのチップです。両チップはAzureエコシステムに統合され、Microsoft自身のデータセンターから始まり、CopilotやAzure OpenAIサービスをサポートします。

Microsoftのクラウド + AIグループのエグゼクティブバイスプレジデント、スコット・ガトリは、パフォーマンスの向上、サプライチェーンの多様性、顧客に柔軟なインフラ選択肢を提供するために、インフラの各レイヤーを最適化するという同社のコミットメントを強調しました。

Azure Maia 100およびCobalt 100の期待される成果

具体的な性能指標はまだ発表されていませんが、MaiaチップはMicrosoftAzure上で大規模なAIワークロードを処理できるよう設計されています。このチップは、先進的な言語モデルのトレーニングや推論タスクを実行するために、Azureのハードウェアスタックに最適化されたアーキテクチャを備えています。

MaiaチップはOpenAIとのコラボレーションにより開発され、OpenAIのモデルでのテストから得られたフィードバックを基に設計が改善されました。OpenAIのCEO、Sam Altmanは、この協力がAzureのAI機能の向上と顧客コストの削減に貢献していることを強調しました。

Cobaltに関しては具体的な情報は限られていますが、このチップがAzure上でエネルギー効率の良い汎用ワークロードに焦点を当てていることは明らかです。Armベースのアーキテクチャにより、Cobaltは消費エネルギーあたりのパフォーマンスを最大化し、より多くの計算能力をもたらします。

Microsoftのハードウェア製品開発担当コーポレートバイスプレジデントであるウェス・マカロウは、アーキテクチャの設計が電力効率を優先しており、Microsoftのデータセンター全体で大幅な改善をもたらす可能性があると述べました。

両チップは特別設計されたラック内のカスタムサーバーボードにインストールされ、既存のデータセンターへのシームレスな統合が保証されます。Maiaラックには、高負荷時の過熱を防ぐために冷却液を循環させる革新的な「サイドキック」が搭載されています。

さらに、Microsoftはパートナー統合を拡大しており、Nvidia H100 テンソルコアGPU向けに設計された新しいNC H100 v5仮想マシンSiriーズのプレビューを開始しました。今後、Nvidia H200 GPUおよびAMD MI300X加速VMをAzureに導入し、AIワークロード処理を強化する計画です。

この戦略により、Microsoftの顧客に対してパフォーマンスとコストに応じた多様な選択肢を提供します。新しいチップは2024年に展開予定で、すでに第二世代の開発も進められています。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles