谷歌正积极推进其Gemini系列的改进,距离2.0版本的发布越来越近。今天,公司推出了两款新版本:Gemini 1.5 Flash-8B,这是一款更小的Gemini 1.5变体,以及升级版的Gemini 1.5 Flash和Gemini 1.5 Pro。根据谷歌的说法,这些型号在多项内部基准测试中表现出了显著的提升,尤其是Gemini 1.5 Flash的性能大幅增强,而Gemini 1.5 Pro在数学、编码和复杂提示方面的能力得到了改善。
谷歌AI工作室的产品负责人Logan Kilpatrick在X上表示:“Gemini 1.5 Flash是全球开发者当前的最佳选择。”
最新Gemini模型的实验迭代
Gemini 1.5 Flash于5月发布,旨在管理长上下文,并能分析超过1000万个token的详细信息。这使其能够处理高容量的多模态输入,包括文档、视频和音频。新发布的8亿参数版本的Gemini 1.5 Flash提供了更好的用户体验,而更新版的Gemini 1.5 Pro在编码和复杂任务上的表现得到了增强,成为8月发布的早期型号的直接替代品。
Kilpatrick提到,预计将在未来几周内推出一款成熟的版本,可能会包含评估功能。他强调,这些实验型模型的研发对收集开发者反馈和快速更新至关重要。
最新的Gemini 1.5 Flash和Pro版本具有100万token的限制,并可通过谷歌AI工作室和Gemini API免费测试,未来计划在Vertex AI实验端点上线。将提供免费层,并预计不久后将推出生产版本。
为减少混淆,谷歌将从9月3日起自动将请求重定向到新模型,逐步淘汰旧版本。
Kilpatrick在X上表示:“我们期待听到你的想法,期待看到这个模型如何激发新的多模态应用场景。”
Gemini 1.5的前所未有的规模
谷歌DeepMind的研究人员将Gemini 1.5的规模称为“前所未有”,在当代语言模型中独树一帜。Kilpatrick对社区对本月早些时候发布的初步实验模型的热情表示感谢,并指出,为实现这些创新付出了艰苦的努力。
对近期更新的混合反馈
社区对早期反馈反应不一,从热情赞扬到怀疑不等。在大型模型系统组织(LMSO)最近的排行榜更新中,Gemini 1.5 Flash从第23名跃升至第6名,基于2万次社区投票,显示出其与Llama等模型的竞争力,并超越了谷歌早期的一些产品。
虽然一些用户指出在图像分析方面有“显著改善”,但也出现了一些批评。有些人质疑更新的频率,认为应该推出更有实质性的版本,例如Gemini 2.0。而另一些用户则认为,新版本存在“懒惰编码问题”,类似于GPT-4 Turbo报告的隐患,称其在处理较长输出和保持连贯性方面存在困难。
在评论谷歌的命名选择时,用户幽默地质疑模型名称的创意。围绕Gemini模型的讨论仍在不断发展,反映出AI进步与用户期望之间的复杂关系。