さまざまな業界の企業がAIの目標を実現するために努力する中、ベンダーはこれらの取り組みを支援するためにリソースを一つのプラットフォームに統合しています。最近の注目すべき例は、GoogleとHugging Faceの戦略的パートナーシップです。この連携により、開発者はGoogle Cloudサービスに効率的にアクセスでき、オープンな生成AIアプリケーションの作成が加速されます。
この協力関係を通じて、Hugging Faceのオープンソースモデルを利用するチームは、それらをGoogle Cloud上でトレーニングし、展開する能力を得ます。この統合により、専門的なVertex AIや、テンソル処理ユニット(TPU)、グラフィックス処理ユニット(GPU)など、Google CloudのAIツールに包括的にアクセスできるようになります。
Hugging FaceのCEO、クレモント・デランジュ氏は、「オリジナルのTransformers論文からT5、Vision Transformerに至るまで、GoogleはAIとオープンサイエンス運動の推進に重要な役割を果たしてきました。このパートナーシップは、Hugging FaceユーザーとGoogle Cloudの顧客が、最新のオープンモデルを最適化されたAIインフラストラクチャとツールとともに利用する方法を簡素化し、開発者が自分自身のAIモデルを作成する能力を大幅に向上させます」と述べています。
Hugging Faceのユーザーは何を期待できるのでしょうか?
Hugging FaceはAIの中心的なハブとして、50万以上のAIモデルと25万のデータセットをホストしています。50,000を超える組織がこのプラットフォームをAIの取り組みに依存しています。一方、Google Cloudは企業向けにAI中心のインフラストラクチャとツールを提供し、オープンAI研究にも積極的に貢献しています。
このパートナーシップにより、Google Cloud上の数十万のHugging Faceユーザーは、生成AIアプリケーションを構築するためのエンドツーエンドのMLOpsプラットフォームであるVertex AIを利用して、自分のモデルをトレーニング、微調整、展開できるようになります。ユーザーはHugging Faceプラットフォームを介して数回のクリックでこれらの機能にアクセスできます。また、Google Kubernetes Engine(GKE)を使用してモデルをトレーニングおよび展開するオプションもあり、Hugging Face特有の深層学習コンテナをGKE上でスケーラブルなカスタマイズインフラストラクチャで利用できるようになります。
さらに、開発者はTPU v5e、Nvidia H100 Tensor Core GPUによるA3仮想マシン(VM)、Intel Sapphire Rapids CPUを利用したC3 VMなど、Google Cloudの高度なハードウェア機能を活用できます。「モデルはGoogle Cloud上で簡単にプロダクション用に展開でき、推論エンドポイントがあります。AI開発者はHugging Face空間でTPUを使ってアプリケーションのスピードを向上できます。企業はGoogle Cloudアカウントを通じてEnterprise Hubサブスクリプションの使用状況と請求を効率的に管理できます」と、Hugging Faceのプロダクトおよび成長担当責任者ジェフ・ブーディエ氏とテクニカルリードのフィリップ・シュミット氏が共同でブログに書いています。
ただし、現時点で利用可能ではありません
この連携は発表されましたが、Vertex AIやGKE展開オプションなどの強化された機能は現在利用できないことに注意が必要です。両社は2024年の前半にHugging Face Hubユーザー向けにこれらの機能を開始することを目指しています。