Snowflake 與 AI21 的 Jamba-Instruct 夥伴合作,助力企業分析長篇文檔。

Snowflake,作為領先的數據雲服務提供商,已正式將 AI21 Labs 的 Jamba-Instruct LLM 整合至其 Cortex AI 服務中。此新功能旨在協助 Snowflake 的企業客戶開發生成式 AI 應用,如聊天機器人和摘要工具,有效處理長篇文檔,同時不妥協品質或準確性。

自即日起,Jamba-Instruct 模型使企業能夠利用大檔案,這對許多企業而言是必要的。儘管 AI21 Labs 是一個重要合作夥伴,Snowflake 還與其他多個 LLM 合作,提升其生成式 AI 生態系統。Snowflake 最近還與 Meta 合作,整合 Llama 3.1 LLM 系列,並推出其自有模型「Arctic」,展現其在生成式 AI 領域的積極進展。

Jamba-Instruct 對 Snowflake 用戶的好處

在三月份,AI21 Labs 發布了 Jamba,一種結合變壓器架構與全新記憶高效的結構化狀態空間模型(SSM)的開放生成式 AI 模型。Jamba 的一大亮點是提供高達 256K 的上下文窗口,與其他類似模型相比,對於長上下文的處理效率提高了三倍。這種高效性促成了 Jamba-Instruct 的誕生,該模型經過專業調整,具備先進的訓練、聊天能力和安全特性,以應用於企業場景。

Jamba-Instruct 於五月在 AI21 的平台上推出,現在已成為 Snowflake 無需編碼的全管理服務 Cortex AI 的一部分。“Jamba-Instruct 能處理高達 256K 的標記,約相當於 800 頁的文本,對於大量文檔管理而言,是一個無價的工具。”Snowflake AI 部門負責人 Baris Gultekin 表示。

例如,金融分析師可利用問答工具從長達 10-K 的報告中提取洞察,而臨床醫生則可快速分析大量病歷報告中的相關數據。零售商也能創建能與客戶進行連貫且具參考性的對話聊天機器人。

Gultekin 強調,模型的廣泛上下文窗口簡化了檢索增強生成(RAG)管道的創建,實現高效的信息檢索,並支援特定語調的內容生成引導提示。

成本效率

除了長文檔處理能力,Jamba-Instruct 還為 Snowflake 的客戶提供顯著的成本節省。該模型的混合設計和專家組合(MoE)技術使其廣泛上下文窗口在經濟上更加可及,相較於其他經過指令調整的變壓器模型更具優勢。再加上 Cortex AI 的無伺服器推理和基於使用量的定價模式,企業僅需為實際使用的資源付費,省卻高昂的專用基礎設施成本。

“企業可以通過利用 Snowflake 的可擴展性和 Jamba-Instruct 的效率,有效地平衡性能、成本和延遲。Cortex AI 的架構支持計算資源的無縫擴展。”AI21 Labs 北美高級副總裁兼總經理 Pankaj Dugar 解釋道。

目前,Cortex AI 支持多種 LLM,包括 Snowflake 的 Arctic 模型以及 Google、Meta、Mistral AI 和 Reka AI 的產品。Gultekin 補充道:“我們致力於為客戶提供在開源和商業模型之間選擇的靈活性,以滿足他們的特定需求,並不複雜化數據治理。”

預計模型選擇將不斷增長,特別是來自 AI21 的新選項在未來幾個月內將陸續推出。Gultekin 強調,客戶的反饋對於評估和整合 LLM 至關重要,以確保可用於各種使用案例的合適工具,包括自動化商業智慧、對話助手和文本摘要。

Snowflake 最近收購了 TruEra,幫助客戶應對日益擴大的模型選擇環境。Gultekin 指出,TruEra 的 TruLens 允許用戶試驗 LLM 並評估適合他們需求的最佳選擇。

目前,超過 5,000 家企業正在利用 Snowflake 的 AI 能力,專注於自動化商業智慧、對話助手和文本摘要等關鍵應用。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles