去年二月,Google DeepMind推出了Gemma,並推出了兩個具有20億和70億參數的開源模型。在今年的Google I/O開發者大會上,公司發布了Gemma 2系列,首款輕量級模型擁有令人驚艷的270億參數,但將於六月正式推出。
“選擇這款27B模型是經過深思熟慮的,”Google Labs副總裁Josh Woodward在近期的圓桌討論中表示。“它已針對Nvidia的下一代GPU和Vertex AI中的單TPU主機進行優化,使用起來十分便捷。我們已經看到了卓越的質量,其性能超越了兩倍大小的模型。”
Gemma旨在幫助開發者將AI融入應用程式和設備,並不需要大量的內存或運算能力,使其非常適合資源有限的環境,例如智能手機、物聯網設備和個人電腦。自首次推出以來,Google已推出了幾個變體,包括用於代碼補全的CodeGemma、提高記憶效率的RecurrentGemma,以及最近發布的用於視覺與語言任務的PaliGemma。
擁有270億參數的Gemma 2預計將在執行更複雜任務時提供更高的準確性和性能,相較於其前身。接入更大的訓練數據集使該AI能夠更快生成高品質回應。
Woodward指出,Gemma 2專為單個TPU運行而設計,特別是指Google在去年八月推出的最新一代TPUv5e。這意味著Gemma 2需要一個專用的AI芯片來優化計算,從而降低延遲並提高在圖像識別和自然語言處理等任務中的效率。這種高效性將為開發者節省成本,使他們能將資源重新投入到應用中。
Gemma 2的上市與OpenAI推出其多模態大型語言模型GPT-4o的時間巧妙重疊,並被定義為“重要的升級”,尤其是對於免費的ChatGPT用戶而言。