Snowflake与AI21的Jamba-Instruct合作助力企业高效分析长文档

Snowflake,领先的数据云服务供应商,正式将AI21 Labs的Jamba-Instruct大语言模型(LLM)集成到其Cortex AI服务中。这一新功能旨在帮助Snowflake的企业客户开发生成式AI应用,例如聊天机器人和摘要工具,以高效处理长文档,同时确保质量和准确性。

从今天起,Jamba-Instruct模型使组织能够充分利用大型文件,这在许多企业中至关重要。作为一个重要的合作伙伴,AI21 Labs与Snowflake合作,还有其他多种LLM,共同增强生成式AI生态系统。最近,Snowflake与Meta达成合作,加入了Llama 3.1 LLM系列,并推出了其专有模型“北极”,展示了其在生成式AI领域的积极进展。

Jamba-Instruct的优势

今年3月,AI21 Labs推出了Jamba,这是一个结合了变换器架构和新型、内存高效的结构状态空间模型(SSM)的开放生成式AI模型。Jamba以其卓越的256K上下文窗口脱颖而出,与类似模型相比,其在处理长上下文时的吞吐量提升了三倍。这一高效性催生了Jamba-Instruct,这是一个经过指令调优的版本,具备高级训练、对话能力和企业应用的安全功能。

Jamba-Instruct于5月在AI21平台上发布,现在已成为Snowflake的Cortex AI的一部分,这是一个无需编码、完全托管的强大生成式AI应用构建服务。Snowflake的AI负责人Baris Gultekin表示:“得益于其庞大的上下文窗口,Jamba-Instruct最多可以处理256K个令牌,相当于约800页文本,是管理大型文档的宝贵工具。”

例如,财务分析师可以利用问答工具从较长的10-K文件中提取见解,而临床医生则能迅速分析大量患者报告以获取相关数据。零售商也可以创建聊天机器人,保持与客户的连贯且有参考依据的对话。

Gultekin强调,模型的广泛上下文窗口简化了检索增强生成(RAG)管道的创建,使信息检索更加高效,并支持在内容生成过程中提供特定语气的引导提示。

成本效益

除了处理长文档,Jamba-Instruct还为Snowflake客户提供显著的成本节约。这款模型的混合设计和混合专家(MoE)技术使其扩展上下文窗口在经济上更具优势,与其他经过指令调优的变换器模型相比。结合Cortex AI的无服务器推理和基于消费的定价模型,企业只需为实际使用的资源付费,无需昂贵的专用基础设施。

AI21 Labs北美高级副总裁兼总经理Pankaj Dugar解释道:“组织可以有效平衡性能、成本和延迟,充分利用Snowflake的可扩展性以及Jamba-Instruct的高效性。Cortex AI的架构支持计算资源的无缝扩展。”

目前,Cortex AI支持多种LLM,包括Snowflake的北极模型和来自Google、Meta、Mistral AI和Reka AI的产品。“我们努力为客户提供选择开放源代码和商业模型的灵活性,满足他们的具体需求,而不复杂化数据治理。”Gultekin补充道。

预计模型选择将不断扩大,特别是来自AI21的新选项将在未来几个月推出。Gultekin强调,客户的反馈对评估和整合LLM至关重要,确保为各种应用场景(如自动化商业智能、对话助手和文本摘要)提供合适的工具。

Snowflake最近收购了TruEra,以帮助客户应对不断扩大的模型选择。Gultekin指出,TruEra的TruLens允许用户测试LLM,并评估其最佳适配性。

如今,已有超过5000家企业利用Snowflake的AI能力,专注于自动化商业智能、对话助手和文本摘要等关键应用。

Most people like

Find AI tools in YBX