NvidiaとMicrosoftが提携し、Copilot+で重大な課題に挑む

数週間前、MicrosoftがCopilot+ PCを発表した際、多くの人々からの疑問が浮上しました。「なぜこれらのAIアプリケーションをGPUで実行できないのか?」この問に対し、2024年のComputexでNvidiaがついに答えを出しました。

NvidiaとMicrosoftは、開発者がRTXグラフィックスカード上でAI加速型アプリケーションを実行できるようにするアプリケーションプログラミングインターフェース(API)の開発で協力しています。このAPIは、Copilotランタイムの中心に位置するSmall Language Models(SLMs)を含み、RecallやLive Captionsといった機能を支えています。

このツールキットにより、開発者はNeural Processing Unit(NPU)に依存することなく、GPU上でアプリケーションをローカルに実行できるようになります。これは、GPUがNPUよりも優れたAI処理能力を持つため、より強力なAIアプリケーションの開発を可能にし、Copilot+の現行要件を超えたPCのアクセシビリティを拡大します。

現在、Copilot+ PCは少なくとも40 Tera Operations Per Second(TOPS)を実行できるNPUに依存していますが、現時点ではSnapdragon X Eliteのみがその仕様を満たしています。一方で、GPUはエントリーレベルのモデルでも100 TOPSを達成し、高度なモデルではさらにそれを超えるAI処理能力を示しています。

新たに導入されたAPIは、Copilotランタイムに対して情報検索強化生成(RAG)機能を追加します。RAGはAIモデルが特定のローカル情報を取得し、より効果的なソリューションを提供できるようにします。今年の初めにNvidiaのChat with RTXでRAG機能が際立った形で紹介されたのを覚えています。

また、NvidiaはComputexでRTX AI Toolkitも発表しました。今年6月にリリース予定のこの開発者スイートは、さまざまなツールやSDKを統合し、開発者が特定のアプリケーション向けにAIモデルを微調整できるようにします。Nvidiaによれば、RTX AI Toolkitを使用すると、オープンソースの代替品と比べて4倍速く、3分の1の大きさのモデルが得られるとのことです。

開発者がエンドユーザー向けにカスタマイズされたAIアプリケーションを作成するためのツールの波が生まれています。一部の技術革新はすでにCopilot+ PCに統合されていますが、今後1年間でさらに多様なAIアプリケーションが登場することが期待されます。これらのアプリケーションを支えるハードウェアは整いつつあるため、次に必要なのはそれに見合ったソフトウェアです。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles