企業がAIアプリケーションやエージェントの開発を進める中、さまざまな言語モデルやデータベースを利用する重要性がますます明らかになっています。アプリケーションをLlama 3からMistralに切り替えるには、技術的な熟練が不可欠です。その要となるのがオーケストレーションレイヤーであり、これは基盤モデルとアプリケーションをつなぐ重要な仲介役です。このレイヤーは、タスクを効果的に実行するためのAPIコールを管理します。
オーケストレーションレイヤーは主に、LangChainやLlamaIndexといったソフトウェアソリューションから構成されており、データベース統合をサポートしています。しかし、重要な疑問が浮かび上がります。このレイヤーはソフトウェアベースのみで構成されているのでしょうか、それともハードウェアもAIモデルを動かす以上の重要な役割を果たすのでしょうか?
答えは明確です。ハードウェアは、LangChainやAIアプリケーションを支えるデータベースを支えるために不可欠です。企業は、高いデータフローを管理できる堅牢なハードウェアスタックを必要としており、現場でのデータセンター業務を遂行できるデバイスも考慮する必要があります。
「AIの中間レイヤーは主にソフトウェアの問題ですが、ハードウェアプロバイダーはその性能と効率に大きく影響を与えることができます」と、InterSystemsのデータプラットフォーム責任者であるスコット・グナウ氏は述べています。AIインフラの専門家は、ソフトウェアがAIオーケストレーションには不可欠であるものの、その効果はサーバーやGPUが大規模なデータ移動に対応できるかに依存していると強調しています。したがって、オーケストレーションレイヤーが最適に機能するためには、基盤となるハードウェアがスマートで効率的である必要があります。高帯域幅・低遅延の接続を通じて重いワークロードを管理することに焦点を当てるべきです。
「このオーケストレーションレイヤーには、高速のチップが必要です」と、IBMコンサルティングの生成AI担当マネージングパートナーであるマット・キャンディ氏は説明します。「将来的には、Siriコンやチップ、サーバーがモデルの種類やサイズに基づいて最適化され、オーケストレーションレイヤーが動的にタスクを切り替える姿が見えると思います。」
現在利用可能なGPUは、これらのニーズを効率よくサポートできます。デルのグローバルCTOおよびAI最高責任者であるジョン・ロース氏は、「これはハードウェアとソフトウェアの問題です。人々はしばしば、AIはハードウェアで動作するソフトウェアであることを忘れています。AIソフトウェアはこれまでで最も要求が高く、パフォーマンス指標や計算要件の理解が必要です」と述べています。AI中間レイヤーは迅速で強力なハードウェアを必要としますが、既存のGPUやチップ以外に新たな特殊な機器は必要ありません。
「確かに、ハードウェアは重要な要素ですが、新たなハードウェアがモデルの性能向上に大きな変革をもたらす可能性は低いと思います」とグナウ氏は指摘します。「最適化はソフトウェアとアーキテクチャから生じ、データ移動を最小限に抑えるのがカギです。」
AIエージェントの出現により、この中間レイヤーを強化する必要性が高まっています。AIエージェント同士が通信し、複数のAPIコールを発信する中で、効果的なオーケストレーションレイヤーが迅速なサーバーを通じてこのトラフィックを管理することが欠かせません。「このレイヤーは、すべての種類のAIモデルや技術へのシームレスなAPIアクセスを保証し、ユーザー体験を向上させます」とキャンディ氏は述べています。「私はこれをミドルウェアスタック内のAIコントローラーと呼んでいます。」
AIエージェントは業界で重要なトピックとなっており、今後数年間の企業AIインフラの発展に影響を与えることが予想されます。ロース氏は、企業が考慮すべき別の要素として、デバイス上でのAIを指摘します。企業は、特に接続が失われた場合にAIエージェントがローカルで動作する必要があるシナリオを計画しなければなりません。「重要な質問は、操作がどこで行われるかということです」とロース氏は提案します。「ここでAI PCのような概念が重要となります。エージェントの集合体があなたの代わりに協力する場合、全てを集中させる必要があるのでしょうか?」
彼は、インターネット接続が切断されても操作が継続できる「コンシェルジュ」エージェントを模索しているデルの取り組みについても語ります。生成AIのおかげで新しいサービスプロバイダーが出現し、GPUスペース、データベース、AIOpsサービスを提供するテクノロジースタックが急増しました。しかし、この拡大が永続的なものではないと、ユニフォアのCEOであるウメッシュ・サクデブ氏は警告します。「テクノロジースタックが爆発的に増加しましたが、正規化の段階が訪れるでしょう」とサクデブ氏は予測します。「最終的に、組織はリソースを内部で統合し、GPUの需要は安定するでしょう。新技術に見られる層やベンダーの急増は典型的であり、AIでも同様の傾向が見られるでしょう。」
企業にとってのベストプラクティスは、ハードウェアからソフトウェアまで、AIエコシステム全体を考慮して、効果的なAIワークフローを実現することです。