本日、Google DeepMindは新しいオープンソースのAIモデル「Gemma」の発表を行いました。このモデルは、2Bおよび7Bパラメータで提供され、最近発表されたGeminiモデルと同様の研究と技術を活用しています。
Gemmaは、事前トレーニング済みおよび指示チューニングされたバリエーションが用意されており、商業利用が可能なライセンスと「Responsible Generative AI」ツールキットを伴っています。さらに、Google DeepMindは、JAX、PyTorch、TensorFlow(Keras 3.0経由)に対応した推論および監視付きファインチューニング(SFT)のためのツールチェーンを提供します。開発者は、ColabやKaggleのすぐに使えるノートブックにアクセスでき、GemmaはHugging Face、MaxText、NVIDIA NeMoとも互換性があります。事前トレーニング済みおよび指示チューニングモデルは、ノートパソコンやワークステーション、Google Cloudの上で実行可能で、Vertex AIやGoogle Kubernetes Engineでのデプロイメントオプションも用意されています。
NVIDIAは、Gemmaの性能向上を図るため、Googleと協力してすべてのNVIDIA AIプラットフォーム(ローカルRTX AI PCを含む)における最適化を強化しています。
Googleの開発者向け副社長兼ゼネラルマネージャー、Jeanine Banksは、GemmaモデルがAI開発のためのオープンソース技術へのGoogleのコミットメントの延長であり、TensorFlowやJAX、PaLM2、AlphaFoldなどのツールに基づいていることを強調しました。Geminiモデルの開発中に得た洞察として、開発者はワークフローの異なる段階でオープンモデルとAPIを同時に利用することが多いと述べ、「私たちはAPIとオープンモデルの両方を提供する唯一のプロバイダーを目指し、コミュニティに幅広い能力を提供します」と述べました。
Google DeepMindの製品管理ディレクター、Tris Warkentinは、Gemmaと他のモデルを比較評価する包括的なベンチマークを公表することを発表しました。これらの評価は、OpenLLMリーダーボードでアクセス可能になります。「NVIDIAやHugging Faceと提携し、すべての公的なベンチマークがこれらのモデルに対して実施されるように努めています」と述べ、開発時に採った透明でコミュニティ重視のアプローチに誇りを持っていることを示しました。
Gemmaは「デザイン上の責任」を持つモデルとされており、Warkentinはこれらのモデルが安全性を確保するために広範な評価を受けていることを強調しました。Google DeepMindのブログでは、GemmaがAIの原則に従い、トレーニングデータセットから個人情報を自動的にフィルタリングする技術を組み込んでいること、そして人間のフィードバックによる強化学習(RLHF)を活用して責任ある行動を促進しているとの詳細が述べられています。モデルのリスクプロファイルを評価するために、手動のレッドチーミングや自動的な敵対的テストも実施されました。
Warkentinは、責任あるAIを育むためにオープンエコシステムの重要性も強調しました。「世界中の開発者や研究者からの多様な視点は、効果的なフィードバックと安全システムの向上のために不可欠であると信じています」と述べ、「このプロジェクトの価値において、フィードバックやコミュニティとのコミュニケーションを統合することが重要です」と結論付けました。