在去年二月,Google DeepMind推出了Gemma,伴随发布了两个开源模型,分别具有20亿和70亿个参数。今年的Google I/O开发者大会上,公司推出了Gemma 2系列,首个轻量级模型的参数量达到惊人的270亿,但预计将在六月正式发布。
Google Labs副总裁Josh Woodward在近期的圆桌讨论中表示:“我们故意选择了这个270亿模型。它针对Nvidia的下一代GPU或单个TPU主机在Vertex AI上进行了优化,使其更易于用户使用。目前的性能已经超越了两倍于它体积的模型,质量非常出色。”
Gemma旨在帮助开发者将人工智能集成到应用程序和设备中,而不需要过多的内存或处理能力。这使其非常适合智能手机、物联网设备和个人电脑等资源有限的环境。自首次推出以来,Google还推出了多个变种,包括用于代码补全的CodeGemma、改善内存效率的RecurrentGemma,以及最近发布的用于视觉和语言任务的PaliGemma。
Gemma 2凭借270亿个参数,能够提供比前代产品更高的准确性和性能,尤其在处理复杂任务时更为出色。通过接入更大规模的训练数据集,AI能够更快速地产生高质量的响应。
Woodward提到,Gemma 2设计为在单个TPUv5e上运行,这是Google在去年八月发布的最新一代芯片。这意味着Gemma 2需要一个专门的AI芯片来优化计算,从而降低延迟,提高图像识别和自然语言处理等任务的效率。这种高效性为开发者带来成本节约,使他们能够将资源重新投入到应用开发中。
Gemma 2的推出正值OpenAI发布其多模态大型语言模型GPT-4o,同时被视为一项“重要升级”,特别是对于免费的ChatGPT用户而言。