今天,Google DeepMind 宣布推出 Gemma,这是一款全新的开源 AI 模型,提供 2B 和 7B 参数版本。这些模型基于最近发布的 Gemini 模型的研究和技术。
Gemma 将提供预训练和指令调优两种变体,配有宽松的商业许可证和负责任的生成 AI 工具包。此外,Google DeepMind 还提供了与主流框架(如 JAX、PyTorch 和通过原生 Keras 3.0 的 TensorFlow)兼容的推理和监督微调工具链。开发者可以访问即用型 Colab 和 Kaggle 笔记本,Gemma 还与 Hugging Face、MaxText 和 NVIDIA NeMo 兼容。预训练和指令调优模型可在笔记本电脑、工作站或 Google Cloud 上运行,并可选择在 Vertex AI 和 Google Kubernetes Engine 上部署。
NVIDIA 也与 Google 合作,增强了所有 NVIDIA AI 平台上的优化,包括本地 RTX AI 电脑,以提升 Gemma 的性能。
Google 开发者 X 的副总裁兼总经理 Jeanine Banks 指出,Gemma 模型体现了 Google 对开源技术在 AI 开发中持久承诺,这一承诺建立在 TensorFlow、JAX、PaLM2 和 AlphaFold 等工具和模型上。她强调,在 Gemini 模型开发期间获得的洞见显示,开发者在工作流程的不同阶段通常会同时利用开放模型和 API。“我们的目标是成为 API 和开放模型的唯一提供者,为社区提供广泛的功能,”Banks 说道。
Google DeepMind 产品管理总监 Tris Warkentin 宣布,公司将发布全面的基准测试,对比 Gemma 与其他模型,这些基准将对外公开在 OpenLLM 排行榜上。他表示:“我们正在与 NVIDIA 和 Hugging Face 合作,确保所有公共基准都针对这些模型进行了测试,”并对开发过程中的透明和以社区为中心的方法表示自豪。
Gemma 被描述为“负责任的设计”。Warkentin 强调,这些模型经过了广泛的评估,以确保安全性。Google DeepMind 的博文详细介绍了 Gemma 符合 AI 原则,采用自动化技术从训练数据集中过滤个人信息,并利用人类反馈强化学习 (RLHF) 来促进负责任的行为。进行了严格的评估,包括人工红团队测试和自动化对抗测试,来评估模型的风险特征。
Warkentin 还强调开放生态系统在培养负责任 AI 方面的重要性。“我们相信,来自全球开发者和研究人员的多元视角对有效反馈和增强安全系统至关重要,”他说。“将这种反馈和与社区的沟通整合是该项目价值的关键。”