Nvidia、AWSでRetriever、DGX Cloud、Project Ceibaスパコンを発表

NvidiaとAmazon Web Services(AWS)は、AWS re:Inventカンファレンスでの重要な発表を通じて戦略的パートナーシップを強化しました。Nvidiaは、新しいDGX Cloudサービスを発表し、Grace Hopper GH200スーパー芯片のAWS上でのデビューを果たしました。この取り組みはProject Ceibaの一環で、世界最大のパブリッククラウドスーパーコンピューティングプラットフォームの構築を目指し、驚異的なAIパワーである64 exaflopsを提供します。また、AWSはEC2サービスを拡充し、4つの新しいGPU対応クラウドインスタンスタイプを追加しました。

Nvidiaは、企業データと生成AIをつなぐRetrieval Augmented Generation(RAG)技術であるNeMo Retrieverの発表も行い、組織がより高度な大規模言語モデル(LLMs)を開発する手助けをします。Nvidiaは、2010年にAWSクラウドコンピューティングインスタンスに初めてGPUを統合して以来、13年以上にわたってパートナーシップを築いてきました。NvidiaのハイパースケールおよびHPC担当ヴァイスプレジデント、イアン・バックは、Anthropic、Cohere、Stability AIなど、相互の顧客に対するイノベーション推進のための協力を強調しました。

DGX Cloud:AWS上のスーパーコンピューティングパワー

NvidiaのDGX Cloudは、AI向けの高度なスーパーコンピューティング能力を提供することを目的としており、その最新版は独自の特徴を持っています。「このDGX Cloudは、NVIDIA Grace Hopperによって初めて動かされるもので、特別です」とバックは説明しました。Grace Hopperスーパー芯片は、主にスーパーコンピュータで利用されるARMコンピュートとGPUを統合しています。AWSのDGX Cloudは、GH200 NVL-32というラックアーキテクチャに32のGH200スーパー芯片を接続し、最高128ペタフロップスのAI性能を実現し、20テラバイトの高速メモリによってサポートされています。「これは、生成AI時代の新しいラックスケールGPUアーキテクチャを示しています」とバックは述べました。

Project Ceiba:世界最大のCloud AIスーパーコンピュータ

NvidiaとAWSは、世界最大のCloud AIスーパーコンピュータを目指すProject Ceibaも発表しました。Project Ceibaは、AWSのElastic Fabric Adapter(EFA)とNitroシステムを利用し、16,000個のGrace Hopperスーパー芯片で構成され、驚異の64 exaflopsのAI性能と最大9.5ペタバイトのメモリを実現します。「このスーパーコンピュータはAWSのインフラ内に設置され、Nvidiaの研究チームがグラフィックス、大規模言語モデル、画像・動画処理、生成AI、デジタルバイオロジー、自動運転車などのAIに関する進歩に利用します」とバックは付け加えました。

NeMo Retriever:効果的なLLMsの鍵

AWS re:InventでのNeMo Retrieverの発表により、Nvidiaは企業向けのチャットボット機能を向上させることを目指します。バックは、一般的に使用されるLLMsが公開データに依存しているため、効果が制限されると指摘しました。組織は正確でタイムリーな情報にアクセスするために、LLMを自社のプロプライエタリデータと統合する必要があります。「この統合は企業チャットボットにとっての聖杯であり、大半の価値あるデータがそこに存在します」とバックは述べました。

NeMo Retrieverは、既存のワークフローにシームレスに統合できるように設計されたプレビルトの企業モデルとリトリーバルマイクロサービスを特徴としており、パフォーマンスを最適化する加速ベクトル検索機能も含まれています。初期のNeMo Retrieverの顧客にはDropbox、SAP、ServiceNowが含まれており、その最先端の精度と最小限の遅延を実証しています。

Most people like

Find AI tools in YBX