Stability AI 持續以快速創新步伐推出新版 Stable LM 2,這是一款擁有120億參數的模型,今日正式上市。儘管該公司以其文本轉圖片技術 Stable Diffusion 而廣為人知,但其涵蓋的生成式 AI 模型範疇遠不止於圖片生成。
Stable LM 於2023年4月首次亮相,作為一款大型語言模型(LLM)以處理文本內容,並在1月迎來其首次更新,推出了擁有16億參數的 Stable LM 2。全新的 Stable LM 2 12B 顯著提升了 Stable LM 的性能,據公司說明,其在特定基準測試中表現超越了更大型的模型如 Llama 2 70B。
Stable LM 2 12B 擁有基本版和指令調整版,針對英語、西班牙語、德語、意大利語、法語、葡萄牙語和荷蘭語七種語言的對話技能進行優化。這些模型可透過 Stability AI 的會員制度進行商業使用,這也是公司的營收模式。
“指令模型專為以對話方式與用戶互動而設計,” Stability AI 語言團隊負責人 Carlos Riquelme 表示。“此外,我們在提高安全性方面投入了巨大努力。”
此次更新恰逢聯合創始人兼CEO Emad Mostaque 辭職,涉及管理爭議,但這顯示出公司在臨時聯合CEO Wong Shan Shan 和 Christian Laforte 的領導下,依然保持堅定的發展勢頭。
Stability AI 希望透過 Stable LM 2 將性能與可及性結合,聲稱12B模型在效能、準確性與使用便捷性之間找到了理想平衡。憑藉120億個參數,它能應對通常需要更大模型處理的任務。基準測試結果顯示,Stable LM 2 12B 在對抗大型模型時仍表現出色。
值得一提的是,開發小型16億模型所用的方法論也同樣應用於新推出的12B版本。Riquelme 解釋道:“我們設想未來模型不再孤立運作,而是作為複雜系統的一部分,讓多個語言模型與外部軟體工具互動。”
“12B模型已訓練為一種‘主控’角色,可連接並利用針對不同用戶需求的各種功能和API。” Stability AI 也在增強先前發布的16億模型,Riquelme指出,小型模型在處理特定任務時效能卓越,但大型的12B模型則提供了更強大的能力。不過,更新後的 Stable LM 2 1.6B 也提升了對話技能、安全性和與其他軟體工具的兼容性。
“它的大小保持不變,確保速度和輕量性,” Riquelme強調。“相對而言,12B模型則更強大可靠,但需求的計算資源更高。”
他強調,根據使用場景和資源可用性(如回應時間、記憶體和預算),每個模型都有其獨特的取捨。“我們相信,並沒有一個單一的最佳模型大小適用於所有場景,因此我們提供兩種不同的模型。”