アナリストが明らかにしたNVIDIAのデータセンター収益がQ3で過去の4倍に急増

Nvidiaは、今年の第3四半期に無事にH100およびA100 GPUを約50万個出荷し、半導体業界に大きな影響を与えました。この素晴らしい成果は、データセンターからの収益が145億ドルに達することを意味し、昨年の同四半期と比較してほぼ4倍の増加を示しています。この成長は、クラウドやデータセンターに関する専門知識を持つ調査会社Omdiaのリーディングアナリスト、ブラッド・ガラボフとマノージ・スカマランによる最近のマーケットスナップショットレポートで詳述されています。

第3四半期のGPUサーバー出荷の大部分は、ハイパースケールクラウドサービスプロバイダー向けであり、MetaはNvidiaの主要なクライアントの一つとして姿を現しました。MicrosoftもH100 GPUに関して多額の注文を行っており、これは同社が展開を進めるAI製品やCopilotをサポートするためと思われます。他の主要クライアントには、Google、Amazon、Oracle、Tencentが含まれますが、Tencentはバイデン政権からの厳しい輸出制限によりH100 GPUへのアクセスに困難を抱えています。Omdiaのアナリストは、NvidiaのGPU出荷量が第4四半期の終わりまでに50万台を超えると予測しています。

とはいえ、Dell、Lenovo、HPEなどの多くのサーバー製造業者は、H100サーバーの受注の履行に遅れを生じています。この遅延は、NvidiaからのGPUが不十分であることから生じており、見込み待ち時間は36〜52週に達しています。

市場の動向

ガラボフとスカマランは、サーバー市場が2027年までに驚異的な1956億ドルに達し、10年前の2倍以上になると予測しています。この成長は、企業がハイパーヘテロジニアスコンピューティングへと移行することで、サーバープロセッサーやコプロセッサーへの依存が高まっていることに起因しています。特定のアプリケーション向けに最適化されたサーバー構成は、複数のコプロセッサーを使用します。

AIのトレーニングおよび推論タスクでの主なサーバー構成には、8つのH100またはA100 GPUを搭載したNvidia DGXサーバーや、16個のカスタム設計のコプロセッサー「Inferentia 2」を特長とするAmazonのサーバーが含まれます。動画トランスコーディングの分野では、20のビデオコーディングユニットを備えたGoogleのサーバーや、12のスケーラブルビデオプロセッサーを持つMetaの動画処理サーバーが人気を集めています。

著者は、「特定のアプリケーションの需要が規模に達してきており、それに伴い最適化されたカスタムプロセッサーを作成することが経済的に有利になると予想しています」と述べています。メディアおよびAIセクターが現在ハイパーヘテロジニアスコンピューティングの恩恵を享受する一方で、データベースやウェブサービスなどの他の分野も、近い将来同様の最適化戦略を採用する可能性が高いと指摘されています。

インフラの成長

Omdiaの調査によれば、AIアプリケーション向けの先進的なサーバーの台頭が物理データセンターのインフラ成長を促進しています。例えば、今年前半のラック電源分配収益は前年同期比で17%増加し、Omdiaの予測よりもやや上回りました。また、データセンターの熱管理収益も2023年に17%の増加が見込まれており、ラック密度の向上に伴い革新的な液体冷却ソリューションの必要性が高まっています。

生成AIの専門サービスが拡大し、2024年以降の企業における導入が進む中で、著者はAIの実装の現状のペースに制約を及ぼす主な要因は電力供給availabilityであると示唆しています。彼らは、予測が資金不足の影響を受けないことを強調し、企業が求められるGPUを担保として活用するという興味深い傾向を挙げています。

このような状況は、データセンターの進化において革新的なハードウェアと最適化されたサーバー構成の重要性を強調しており、さまざまな分野でAI能力に対する需要が高まる中で、今後の発展が期待されます。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles