Snowflake Faz Parceria com o Jamba-Instruct da AI21 para Ajudar Empresas a Analisar Documentos Longos

A Snowflake, líder em serviços de data cloud, integrou oficialmente o modelo Jamba-Instruct da AI21 Labs em seu serviço Cortex AI. Esta nova adição visa ajudar os clientes corporativos da Snowflake a desenvolver aplicações de IA generativa — como chatbots e ferramentas de resumo — capazes de gerenciar documentos extensos com eficiência, sem comprometer a qualidade ou a precisão.

A partir de hoje, o modelo Jamba-Instruct permite que organizações aproveitem arquivos grandes, uma necessidade comum em muitas empresas. Embora a AI21 Labs seja um parceiro significativo, a Snowflake colabora com uma variedade de LLMs para enriquecer seu ecossistema de IA generativa. Recentemente, a Snowflake se associou à Meta para incorporar a família de LLM Llama 3.1 e lançou seu modelo proprietário, 'Arctic', reforçando sua posição no espaço de IA generativa.

Benefícios do Jamba-Instruct para Usuários da Snowflake

Em março, a AI21 Labs apresentou o Jamba, um modelo de IA generativa aberto que combina uma arquitetura transformer com um novo modelo de Espaço de Estado Estruturado (SSM) que é eficiente em termos de memória. O Jamba se destaca ao oferecer uma janela de contexto impressionante de 256K, resultando em um aumento triplo na capacidade de processamento para contextos longos em comparação a modelos similares. Essa eficiência possibilitou o Jamba-Instruct, uma versão ajustada para instruções que inclui treinamento avançado, capacidades de conversa e recursos de segurança para aplicações corporativas.

Lançado na plataforma da AI21 em maio, o Jamba-Instruct agora faz parte do Cortex AI, o serviço sem código totalmente gerenciado da Snowflake para construir poderosas aplicações de IA generativa. “Com sua ampla janela de contexto, o Jamba-Instruct processa até 256K tokens — cerca de 800 páginas de texto — tornando-se uma ferramenta valiosa para o gerenciamento de documentos extensos”, afirmou Baris Gultekin, chefe de IA da Snowflake.

Por exemplo, analistas financeiros podem usar ferramentas de perguntas e respostas para extrair insights de longos documentos 10-K, enquanto clínicos podem analisar rapidamente extensos relatórios de pacientes em busca de dados relevantes. Varejistas também podem criar chatbots capazes de manter diálogos coerentes e baseados em referências com os clientes.

Gultekin ressaltou que a ampla janela de contexto do modelo simplifica a criação de pipelines de geração aumentada por recuperação (RAG), permitindo uma recuperação eficiente de informações e suporte a prompts guiados para tons específicos durante a geração de conteúdo.

Eficiência de Custos

Além de suas capacidades para documentos longos, o Jamba-Instruct oferece economias significativas de custos para os clientes da Snowflake. O design híbrido do modelo e a tecnologia de mistura de especialistas (MoE) tornam sua ampla janela de contexto mais acessível economicamente em comparação a outros modelos transformer ajustados para instruções. Juntamente com o modelo de precificação baseado no consumo e inferência sem servidor do Cortex AI, as empresas pagam apenas pelos recursos utilizados, eliminando a necessidade de infraestrutura dedicada e cara.

“As organizações podem equilibrar performance, custo e latência de forma eficaz ao aproveitar a escalabilidade da Snowflake em conjunto com a eficiência do Jamba-Instruct. A arquitetura do Cortex AI permite a escalabilidade contínua dos recursos computacionais”, explicou Pankaj Dugar, SVP e GM da AI21 Labs para a América do Norte.

Atualmente, o Cortex AI suporta uma variedade de LLMs, incluindo o modelo Arctic da Snowflake e ofertas do Google, Meta, Mistral AI e Reka AI. “Nosso objetivo é proporcionar aos clientes a flexibilidade de escolher entre modelos de código aberto e comerciais, atendendo a suas necessidades específicas sem complicar a governança de dados”, acrescentou Gultekin.

A seleção de modelos deve crescer, com novas opções — especialmente da AI21 — previstas para os próximos meses. Gultekin destacou que o feedback dos clientes é fundamental na avaliação e integração de LLMs para garantir que as ferramentas certas estejam disponíveis para diversos casos de uso, incluindo inteligência empresarial automatizada, assistentes conversacionais e resumo de textos.

Recentemente, a Snowflake adquiriu a TruEra para ajudar os clientes a navegar na crescente variedade de escolhas de modelos. Gultekin observou que o TruLens da TruEra permite aos usuários experimentar LLMs e avaliar os melhores para suas necessidades.

Atualmente, mais de 5.000 empresas utilizam as capacidades de IA da Snowflake, com foco em aplicações chave como BI automatizado, assistentes conversacionais e resumo de textos.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles