アンペア コンピューティングがCPUファミリーを拡張し、AI効率に注力
アンペア コンピューティングは、アンペアワン チップファミリーを来年までに256コアに拡張することを発表しました。さらに、同社はクアルコムと協力して、クラウド向けのAI加速器を開発しています。
クアルコムとの協業
カリフォルニア州サンタクララに本社を置くアンペアは、クアルコム テクノロジーズと連携し、安価な電力消費で高性能な「Cloud AI 100推論」ソリューションをアンペアのCPUと組み合わせて、AI推論向けのソリューションを提供します。
アンペアのCEO、レニー・ジェームスは、AIの進展に伴うエネルギー問題の重要性を強調しました。「私たちは6年前にこの挑戦を始め、それがいかに重要かを認識しています」とジェームスは述べました。「低電力が必ずしも低パフォーマンスを意味しないことを、私たちは再定義しています。アンペアは効率の最前線を革新し、優れたパフォーマンスを提供しています。」
データセンターのエネルギー効率
データセンターのエネルギー消費は増加する一方で、ジェームスはAIの急速な普及が業界全体のエネルギー課題を悪化させていると指摘しました。「現在の方向性は持続不可能です。将来のデータセンターインフラは、空冷システムの改修や、電力供給に対応した持続可能な新施設の構築が必要です」と述べました。
ウィティッチもこれに同意し、データセンターにおけるAIによる消費電力の増加が新しいCPUの必要性を生んでいると指摘しました。「一般的なコンピューティングとAIの両方で効率を向上させるソリューションを開発することが不可欠です」と彼は付け加えました。
アンペアのAIコンピューティングビジョン
アンペアは「AIコンピュート」と称される包括的なアプローチを推進しており、クラウドネイティブな機能とAIの機能を統合しています。「私たちのCPUは、人気のあるクラウドネイティブアプリケーションからAIまで、幅広い作業負荷に対応し、データ処理やメディア配信といった従来のアプリケーションにAIを統合できます」とウィティッチは説明しました。
将来のロードマップ
アンペアは、データセンター向けCPUの野心的なロードマップを策定しています。今後の重要な開発には、TSMC N3技術を用いた12チャネル256コアのCPUが含まれます。すでに発表された192コアのCPUは、生産中で市場に出回っています。
アンペアとクアルコムは、Ampere CPUとQualcomm Cloud AI 100 Ultraを組み合わせた共同ソリューションの向上を目指しています。このソリューションは、生成AIにおける大規模言語モデル(LLM)の推論をターゲットとしています。
ウィティッチは、この提携がAIアプリケーションに最適化された高効率CPUの開発へのコミットメントであると述べています。「このソリューションは、顧客の採用を簡素化し、AI推論のための革新的な機能を提供します」と彼は言いました。
パフォーマンスの向上
12チャネルプラットフォームの拡張により、新しい256コアのアンペアワンCPUは、複雑な設計を必要とせずに大幅なパフォーマンス向上をもたらします。現在の192コアモデルも、今年後半に発売される予定で、メモリ配分が8チャネルから12チャネルに進化していきます。
特筆すべきは、アンペアのCPU技術がMetaのLlama 3でオラクル クラウドにより使用されていることです。Llama 3は、128コアのアンペアアルトラCPU上でGPUなしに稼働し、NvidiaのA10 GPUおよびx86 CPUの組み合わせと同等の性能を発揮しながら、消費電力はその三分の一です。
UCIe作業グループと競争力の優位性
最近、アンペアはAIプラットフォームアライアンスの一環としてUCIe作業グループを設立し、将来の設計に顧客IPを統合できる柔軟性を向上させています。
AMDとの直接競争の中で、アンペアはそのパフォーマンスの優位性を強調しています。アンペアワンCPUは、ワット当たりの性能でリードしており、AMDのGenoaを50%、Bergamoを15%上回っています。データセンターのインフラをアップグレードしようとする間に、アンペアワンはラックあたり34%のパフォーマンスを提供できます。
新しいアンペアワンのOEMおよびODMプラットフォームは、今後数ヶ月以内に出荷される予定です。また、アンペアはNETINTと提携し、同社のQuadra T1Uビデオ処理チップを使用したソリューションを開発しています。これは、OpenAIのWhisperモデルを利用して、360のライブチャンネルを同時にトランスコーディングし、40のストリーム用にリアルタイムで字幕を付けることを可能にします。
アンペアは、AI時代におけるコンピューティングの中核を目指しています。メモリタグ付け、QoSエンフォースメント、メッシュ渋滞管理などの最近の拡張は、スケールアウトとスケールアップの両方に同じSKUを活用できるFlexSKU機能の導入に結びついています。
オラクルとのコラボレーションにより、アンペアは競合するNvidiaソリューションに必要な電力のわずか三分の一で運用コストを28%削減することに成功しました。このアプローチは、ユーザーがサーバーを15%少なく、ラックスペースを33%削減し、電力消費を35%削減できるようにし、効率とパフォーマンスを重視したAIコンピューティングにおけるアンペアのコミットメントを強化しています。