在雲端伺服器提供商的競爭格局中,Amazon Web Services (AWS) 的首席開發者倡導者 Donnie Prakoso 在最近的部落格文章中宣布與法國初創公司 Mistral 的新合作。這項合作將開源的大型語言模型(LLMs)引入 AWS 去年推出的生成式 AI 應用管理服務 Amazon Bedrock。
Mistral 的兩個模型,Mistral 7B 和 Mixtral 8x7B,將很快整合進此服務,但具體上市日期尚未公佈。
Mistral 模型對 AWS 客戶的優勢
Prakoso 強調了 Mistral 模型的幾個優勢:
- Mistral 7B:此模型旨在提高效率,需用的記憶體極少,卻提供強大的表現。適用於文本摘要、分類、補全和代碼生成等多種案例。
- Mixtral 8x7B:作為更高級的選擇,Mixtral 採用了混合專家(MoE)架構,在文本摘要、問答、文本分類、文本補全及多語言的代碼生成方面表現卓越,支持英語、法語、德語、西班牙語和意大利語等語言。Mixtral 8x7B 之前曾被認為是全球頂尖的開源 LLM,但最近被 Smaug-72B 超越。
整合 Mistral 於 Amazon Bedrock 的原因
AWS 決定將 Mistral 模型整合進 Amazon Bedrock 是基於下列幾個重要因素:
1. 成本效益平衡:Mistral 的模型提供高性價比,是尋求經濟實惠的生成式 AI 解決方案的開發者和組織的理想選擇。
2. 快速推理速度:Mistral 模型經過優化,具備低延遲和高吞吐量,能在生產環境中有效擴展,以提升用戶體驗。
3. 透明性與可定制性:Mistral 對透明性和定制化的承諾幫助組織滿足監管要求,同時針對特定需求調整模型。
4. 可獲取性:Mistral 模型設計適合廣泛受眾,使各種組織能夠輕鬆整合生成式 AI 功能。
這一戰略整合使 AWS 能夠提供全面的 AI 模型,類似於競爭對手微軟最近將 Meta 的 Llama AI 模型添加至 Azure AI Studio 的舉措。此外,AWS 也在投資另一個 AI 模型供應商 Anthropic,同時在內部開發專有的生成式 AI 基礎模型。