Google Cloudは、主力AIモデルであるGeminiの2つのバージョン、Gemini 1.5 FlashとGemini 1.5 Proを発表しました。Gemini 1.5 Flashは、100万トークンのコンテキストウィンドウを備えたコンパクトなマルチモーダルモデルで、高頻度のタスク向けに設計されています。これは、5月のGoogle I/Oで初めて公開され、現在開発者に利用可能です。一方、より強力なGemini 1.5 Proは、2月に発表され、200万トークンのコンテキストウィンドウを持ち、Googleの大型言語モデル(LLM)の中で最も進化したバージョンです。
これらのGeminiモデルの発表は、GoogleのAI技術が企業にどのような革新的なAIエージェントやソリューションを創出できるかを示しています。Google CloudのCEOトーマス・クリアンは、最近のプレスブリーフィングで、生成AIの採用の「驚異的な勢い」を強調し、アクセンチュア、エアバス、ゴールドマン・サックスなどの大手企業がGoogleのプラットフォームを基にした取り組みを進めていることに言及しました。クリアンは、この急成長はGoogleのモデルとVertexプラットフォームの強力な組み合わせによるものだと述べ、両者での急速な進展を約束しています。
Gemini 1.5 Flash
Gemini 1.5 Flashは、開発者に低遅延でコスト効果の高い料金体系を提供し、小売チャットエージェントやドキュメント処理などのアプリケーションに最適なコンテキストウィンドウを備えています。Googleの主張によれば、Gemini 1.5 Flashは、10,000文字の入力を処理する際に、平均してGPT-3.5 Turboよりも40%速く動作します。さらに、OpenAIのモデルに比べて4分の1の入力コストを提供し、32,000文字を超える入力のためにコンテキストキャッシングをサポートしています。
Gemini 1.5 Pro
Gemini 1.5 Proは、独自の200万トークンのコンテキストウィンドウを持ち、より多くのテキストを分析し、包括的な応答を生成することができます。クリアンは、この能力により、ユーザーは2時間の高精細ビデオや60,000行以上のコードを小さく分けることなく入力できると説明しています。このモデルの強化された処理能力からは、多くの企業がすでに大きな価値を享受しています。クリアンは、2つのモデルの違いを明確にし、Gemini 1.5 Proは長大なコンテンツの処理に最適であり、一方Flashは低遅延アプリケーションに適していると述べています。
Gemini 1.5のコンテキストキャッシング
開発者がGeminiのコンテキストウィンドウの潜在能力を最大限に活かせるように、Googleは両方のモデルのためのコンテキストキャッシングを導入しています。この機能により、モデルは以前に処理した情報を保存および再利用でき、長い会話やドキュメントに対する応答を再計算する必要がなくなるため、計算コストを最大75%削減できます。
Geminiのプロビジョンドスループット
新たに利用可能なプロビジョンドスループット機能は、開発者が時間の経過に伴うモデルのクエリ処理数を管理し、Geminiモデルの効率的なスケーリングを実現します。このオプションは、従来の従量課金モデルに比べて、予測可能性と信頼性が向上しています。クリアンは、プロビジョンドスループットにより顧客が推論能力を予約でき、大規模なイベント中にソーシャルメディアプラットフォームが経験する需要の急増時にも一貫したパフォーマンスを保証すると述べました。
プロビジョンドスループットは現在一般に利用可能で、開発者が生産ワークロードをよりよくコントロールできるようにし、応答時間や稼働時間に関するサービスレベルの保証を提供します。