Nvidia、次世代ブラックウェルGPUを発表:25倍低コストとエネルギー消費の実現!

Nvidiaは、次世代のブラックウェル(Blackwell)グラフィックスプロセッシングユニット(GPU)を発表しました。この新しいGPUは、AI処理タスクにおいて25倍のエネルギー効率を改善し、コストを削減することを約束しています。

新しいNvidia GB200 Grace Blackwellスーパーチップは、複数のチップを一つのパッケージにまとめており、従来のモデルと比較して大規模言語モデル(LLM)の推論ワークロードで最大30倍の性能向上を実現します。Nvidia GTC 2024の基調講演で、CEOのジェンセン・ファンはブラックウェルを計算技術における重要な進展と位置づけ、ゲーム製品の展開計画も言及しました。ファンは、披露されたプロトタイプがそれぞれ100億ドルと50億ドルの価値があるとユーモラスに語り、Grace Blackwellシステムの重要性を強調しました。「30年間、私たちは深層学習やAIにおけるブレークスルーを促進するために加速計算を追求してきました。生成AIは私たちの時代を形作っており、ブラックウェルGPUはあらゆる産業革命を牽引します」と述べました。

Nvidiaは、ブラックウェルベースのシステムが、ホッパーアーキテクチャと比較してトリリオンパラメータモデルのリアルタイム生成AIを25倍のコストとエネルギー消費で展開できると主張しています。処理能力は最大10トリリオンパラメータのモデルにまでスケールアップします。

Nvidiaは、推論チップに特化したGroq社や、ハイエンドCPUの競合であるCerebras、AMD、Intelに対抗するため、ブラックウェルの進展が前モデルよりも大幅なコストとエネルギー効率をもたらすとしています。ブラックウェルは、国立科学アカデミーに初めて選ばれたアフリカ系アメリカ人である数学者デビッド・ハロルド・ブラックウェルにちなんで名付けられ、Nvidiaのホッパーアーキテクチャの後継として、加速計算における新たな基準を打ち立てています。元々ゲームグラフィックス用に設計されたGPUは、AI処理の基盤となり、Nvidiaの時価総額は2.2兆ドルに達し、Nvidia GTCなどのイベントでメディアの注目を集めています。

このプラットフォームは、データ処理、工学シミュレーション、電子設計自動化、コンピュータ支援薬剤設計、量子コンピューティング、生成AIなどのさまざまな分野を変革できる6つの革新的な技術を導入しています。ファンは、ブラックウェルが2080億トランジスタを搭載した世界で最も強力なチップになると主張し、TSMCの先進的な4NPプロセスで製造され、処理能力が向上しています。第二世代のトランスフォーマーエンジンは、マイクロテンソルスケーリングサポートや高精度動的レンジ管理を含み、計算能力を2倍にし、革新的な4ビット浮動小数点AI推論機能を追加しています。

Nvidiaはまた、第5世代のNVLinkネットワーキング技術を発表し、マルチトリリオンパラメータAIモデル用の高スループットを実現しています。最新のNVLinkは、各GPUあたり1.8 TB/sの双方向スループットを提供し、最大576のGPU間でのシームレスな通信を可能にします。さらに、ブラックウェルGPUに統合されたRASエンジンは、AIベースのメンテナンスを通じてシステムの信頼性を向上させ、運用コストを削減します。

ブラックウェルアーキテクチャは、主要なサーバーシステムに不可欠な要素となります。高度な機密コンピューティング機能により、AIモデルや顧客データを保護しつつ、高性能を維持します。また、専用のデコンプレッションエンジンはデータベースクエリを加速し、データ分析と処理性能を向上させます。

Nvidia GB200 NVL72は、1.4エクサフロップのAI性能と30TBの高速メモリを提供するラックスケールシステムで、ブラックウェルスーパーチップを核としています。Amazon、Google、Meta、Microsoft、OpenAIなどの主要クラウドプロバイダーやAIリーダーがこのプラットフォームを採用する見込みであり、計算能力の大きなシフトを示唆しています。

GB200 Grace Blackwellスーパーチップは、2つのNvidia B200テンソルコアGPUをNvidia Grace CPUに900GB/sの超低消費電力リンクで接続し、LLM推論においてNvidia H100テンソルコアGPUと比べて最大30倍の性能向上を実現し、コストとエネルギー消費を最大25倍削減します。

GB200は、36のGrace Blackwellスーパーチップ、72のブラックウェルGPU、36のGrace CPUが第5世代NVLinkで相互接続されたマルチノードの液冷式NVL72システムの重要な構成要素です。さらに、このシステムはNvidia BlueField-3データ処理ユニットを統合し、ハイパースケールAIアプリケーション向けのクラウドネットワーキング、ストレージセキュリティ、GPU計算の柔軟性を向上させます。

NvidiaのHGX B200サーバーボードは、8つのB200 GPUを互いに接続し、業界の先端を行くx86ベースの生成AIプラットフォームをサポートします。ネットワーク速度はNvidiaのQuantum-2 InfiniBandおよびSpectrum-Xイーサネット技術を通じて最大400Gb/sに達します。

GB200は、主要なクラウドサービスプロバイダーと共同開発されたAIプラットフォームであるNvidia DGX Cloudでも利用可能で、開発者が高度な生成AIモデルを構築するための重要なツールを提供します。Cisco、Dell Technologies、Hewlett Packard Enterprise、Lenovo、Supermicroなどの企業が、ブラックウェル技術に基づくさまざまなサーバーを提供する予定です。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles