Stability AI发布令人振奋的更新:Stable LM 2模型参数提升至120亿

Stability AI持续以快速的创新步伐推出新产品,今天发布了全新的 Stable LM 2 模型,拥有120亿个参数。

虽然Stability AI 因其文本生成图像技术 Stable Diffusion 而广受认可,但该公司所涉及的生成式 AI 模型远不止于图像生成。Stable LM 于2023年4月首次亮相,是一款大型语言模型(LLM),并在1月进行了首次更新,推出了16亿参数的 Stable LM 2。全新的 Stable LM 2 12B 大幅提升了其性能,参数更多,表现优于如 Llama 2 70B 等更大型模型,在特定基准测试中成绩斐然。

Stable LM 2 12B 包含基础版本和针对七种语言(英语、西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语)优化的指令调节版本,旨在提升对话能力。这些模型通过Stability AI会员资格可供商业使用。

Stability AI语言团队负责人卡洛斯·里奎尔梅(Carlos Riquelme)表示:“指令模型专为与用户进行对话而设计。此外,我们在提升安全性方面投入了大量精力。”

此次更新是在公司联合创始人兼首席执行官埃马德·莫斯塔克(Emad Mostaque)因管理争议辞职后发布的,但在临时共同首席执行官王姗姗(Shan Shan Wong)和克里斯蒂安·拉福特(Christian Laforte)的领导下,公司的创新发展依然势头迅猛。

Stability AI希望通过 Stable LM 2 实现性能与可用性的最佳结合,声称120亿参数的模型在强大、精确与易用性之间找到了理想平衡。凭借这120亿参数,模型能够处理通常需要更大模型的任务。基准结果显示,Stable LM 2 12B 在与显著更大模型的对比中表现不俗。

值得注意的是,创建16亿模型时采用的方法同样应用于新发布的120亿版本。里奎尔梅表示:“我们设想的未来是模型不再孤立工作,而是作为复杂系统的一部分,能够与多个语言模型及外部软件工具进行交互。120亿模型已被训练以充当‘主控’角色,与各种功能和API连接,以满足不同用户的需求。”

此外,Stability AI还在不断增强先前发布的16亿模型。里奎尔梅指出,尽管较小的模型可以有效处理特定任务,但120亿模型的能力更强。然而,更新后的 Stable LM 2 1.6B 在对话能力、安全措施以及与其他软件工具的兼容性方面都有显著提升。

“它保持了之前的尺寸,确保其快速且轻量。”里奎尔梅补充说:“相比之下,120亿模型更为强大和可靠,但需要更多的计算资源。”

他强调,根据使用情况和资源可用性(如响应时间、内存和预算),每个模型都有其独特的权衡。

“我们认为并不存在适合所有场景的单一最佳模型尺寸,这也是我们提供两种不同模型的原因。”

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles