GoogleがGemma 2Siriーズを発表:1つのTPUで動作可能な27Bパラメータモデルの新登場

Google DeepMindのGemma 2が登場 - 次世代AIモデルの革新

昨年2月、Google DeepMindがGemmaを発表し、20億パラメータと70億パラメータの2つのオープンソースモデルをリリースしました。今年のGoogle I/O開発者会議では、Gemma 2Siriーズが発表され、軽量モデルがさらに進化し、驚異の270億パラメータを備えています。ただし、リリースは6月を予定しています。

Google Labsの副社長、ジョシュ・ウッドワードは最近のラウンドテーブルディスカッションで「この27Bモデルは意図的に選ばれました。Nvidiaの次世代GPUやVertex AIの単一TPUホストに最適化されており、使いやすさが特徴です。品質はすでに優れており、パフォーマンスは同サイズのモデルの2倍を超えています」と述べました。

Gemmaは、AIをアプリやデバイスに統合したい開発者向けに設計されており、大量のメモリや処理能力を必要としません。このため、スマートフォンやIoTデバイス、個人用コンピュータなど、リソースが限られた環境に最適です。初回リリース以来、Googleはコード補完のためのCodeGemmaや、メモリ効率を改善するためのRecurrentGemma、最近登場した視覚と言語のタスクに特化したPaliGemmaなど、いくつかのバリエーションを提供しています。

270億パラメータを備えたGemma 2は、前モデルに比べてより複雑なタスクに対しても高い精度とパフォーマンスを提供することが期待されています。より大きなトレーニングデータセットへのアクセスにより、AIはより高品質な応答を迅速に生成できます。

ウッドワードは、Gemma 2は単一のTPUで動作するように設計されていると述べましたが、具体的には昨年8月にリリースされたGoogleの最新世代チップTPUv5eを指しています。これにより、Gemma 2は計算を最適化するために単一の専門AIチップを必要とし、画像認識や自然言語処理などのタスクにおいて低レイテンシと高効率を実現します。この効率性は開発者にコスト削減をもたらし、アプリケーションへの再投資を可能にします。

Gemma 2の登場はOpenAIのマルチモーダルLLM、GPT-4oのリリースと重なり、特に無料のChatGPTユーザーにとって「重要なアップグレード」と位置づけられています。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles