オラクル、最先端のNvidia AIハードウェアソリューション導入でクラウド大手と競争へ

オラクルは、Nvidiaとのパートナーシップを拡大し、新たなGPUオプションとAIインフラサービスをオラクルクラウドインフラストラクチャ(OCI)で発表しました。この発展は、AI市場の進化を示し、さまざまな規模のビジネスがAI機能を活用できる柔軟性を提供することを目指しています。

主な発表内容

この発表の主な内容は、Nvidia L40S GPUのOCIコンピュートオファリングへの統合と、Nvidia H100 Tensor Core GPUの新しい仮想マシンオプションの導入です。OCIおよびオラクルテクノロジーのバイスプレジデント、レオ・リョン氏は、「これはNvidiaとのパートナーシップ及びAI市場における重要なマイルストーンです。私たちは、顧客のニーズの成長を踏まえた多様な利用ケースに対応しています」と述べました。

OCIの拡充されたNvidia GPUラインナップは、入門向けから高パフォーマンスオプションまで多岐にわたり、企業のAIコンピューティングパワーへの需要の高まりを反映しています。

L40S GPU: 多才なAI加速器

新しいL40S GPUインスタンスは、推論、小規模モデルの学習、デジタルツインなどのグラフィック集約型アプリケーションを含むさまざまなAIワークロードに対応して設計されています。Nvidiaの加速コンピューティング製品のディレクター、デイヴ・サルヴァトール氏は、L40S GPUの適応力を次のように説明しています。「私たちはこれをユニバーサルAI加速器と見ています。伝統的なAI、主に推論に優れており、小規模モデルの学習や3Dレンダリング、ビデオ処理も行うことができます。」

オラクルは、これらのGPUオプションをベアMetaルおよび仮想マシン構成で提供し、顧客がAIワークロードを最適に展開できるようにしています。リョン氏は、「ベアMetaルは最大限のリソース利用可能性を確保し、初期のAIフェーズでのパフォーマンスが極めて重要です」と述べています。

OCIスーパークラスタ: 大規模AIモデルの推進

この発表は、オラクルのOCIスーパークラスタサービスを強化し、最大65,000のNvidia GPUをサポートできるようになりました。この大規模なスケーリングは、数百億のパラメータを持つ巨大なAIモデルを訓練する組織向けに設計されています。「スケールは重要です」とサルヴァトール氏は強調しました。「これはコンピューティングと優れたネットワーキングの組み合わせを含んでいます。迅速な展開は推論を早め、企業がすぐに価値を生み出せるようにします。」

業界アナリストは、この拡張をオラクルがAIクラウド市場での競争を強化するための戦略的な取り組みと見ています。この市場は現在、アマゾンウェブサービス、Microsoftアジュール、Googleクラウドが主導しています。オラクルはNvidiaとの協力を活用し、大規模AIワークロードを展開する企業にとって強力な競争者としての立場を築いています。このパートナーシップにより、Nvidiaも企業スペースで最新のGPU技術をアピールする追加のクラウドプラットフォームを得ることができます。

すべてのビジネスサイズにおけるAIアクセスの拡大

AIが産業を再構築する中、強力で柔軟なAIインフラの提供を巡ってクラウドプロバイダー間の競争が激化しています。オラクルの最新の提供は、この動的な環境で競争力を保つための取り組みを強調しています。

これらの新しいオプションは、企業がAIインフラへの投資を最適化する機会を提供し、小規模な組織の競争障壁を低くし、要求の高いワークロードを管理する企業のニーズにも対応しています。リョン氏は、「私たちはクラウドプロバイダーとして、巨大なモデルをホスティングするテックジャイアントから、特殊なアプリケーションを開発する小さなエンジニアリングチームまで、すべての顧客タイプにサービスを提供することを目指しています」とまとめました。

この発表により、オラクルはAIへの野心を強調し、Cloud AI市場での競争が激化する中での位置づけを明確にしています。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles