Snowflake Lança o Cortex: Um Serviço Gerenciado para Desenvolver Aplicações LLM na Nuvem de Dados

Hoje, a fornecedora de dados como serviço e armazenamento em nuvem com sede em Montana, Snowflake, apresentou o Cortex, um serviço totalmente gerenciado que integra modelos de linguagem de grande escala (LLMs) em sua nuvem de dados.

Revelado durante o evento anual Snowday, o Cortex oferece às empresas que utilizam a nuvem de dados da Snowflake um conjunto de ferramentas de IA, incluindo LLMs de código aberto, projetadas para analisar dados e desenvolver aplicações voltadas para diversas necessidades de negócios. “Com o Snowflake Cortex, as empresas podem rapidamente aproveitar modelos de linguagem de grande escala, criar aplicações personalizadas impulsionadas por LLM em minutos e manter flexibilidade e controle sobre seus dados—transformando a forma como os usuários utilizam a IA generativa para o crescimento dos negócios”, afirmou Sridhar Ramaswamy, VP de IA da Snowflake.

Disponível hoje em pré-visualização privada, o Cortex inclui um conjunto de modelos específicos para tarefas que aprimoram funções dentro da nuvem de dados. A Snowflake planeja usar este serviço para três de suas ferramentas de IA generativa: Snowflake Copilot, Universal Search e Document AI.

Desenvolvendo Aplicações LLM com Cortex

Enquanto as empresas estão ansiosas para adotar a IA generativa, muitas enfrentam dificuldades com as complexidades da implementação de tecnologia, como a necessidade de talentos especializados e a gestão de infraestruturas complexas de GPU. O Snowflake Cortex visa simplificar esse processo.

O serviço oferece aos usuários uma variedade de funções de IA sem servidor, tanto especializadas quanto de uso geral. Essas funções podem ser acessadas por meio de simples chamadas SQL ou Python, permitindo que os usuários iniciem aplicações funcionais de IA na infraestrutura otimizada de custos do Cortex.

Arquitetura do Snowflake Cortex

As funções especializadas utilizam modelos de linguagem e aprendizado de máquina para facilitar tarefas analíticas específicas com entradas em linguagem natural. Por exemplo, esses modelos podem extrair respostas, resumir dados e traduzir idiomas. Também podem ajudar com previsões com base nos dados fornecidos ou detectar anomalias.

Por outro lado, as funções de uso geral oferecem aos desenvolvedores uma ampla gama de modelos, desde LLMs de código aberto como o Llama 2 até modelos proprietários da Snowflake, incluindo um que converte entradas de texto em SQL para consultas de dados. É importante ressaltar que essas funções gerais incluem capacidades de embedding vetorial e busca, permitindo que os usuários contextualizem respostas com base em seus dados e criem aplicações personalizadas para diferentes casos de uso, facilitadas através do Streamlit na Snowflake.

“Isso é fantástico para nossos usuários porque eles não precisam provisionar nenhum recurso,” afirmou Ramaswamy. “Nós cuidamos do provisionamento e do implante, muito parecido com uma API, similar às ofertas da OpenAI, mas totalmente dentro da Snowflake. Nossos clientes podem ficar tranquilos sabendo que seus dados permanecem isolados e seguros, livres dos riscos de treinamento cruzado.”

Ramaswamy destacou que não são necessárias extensas habilidades de programação; os usuários podem operar dentro do SQL para realizar suas tarefas. No lado da aplicação, os usuários podem desenvolver facilmente chatbots conversacionais adaptados ao seu conhecimento específico de negócio, como um copiloto elaborado para conteúdo de ajuda.

Experiências Nativas de LLM Impulsionadas pelo Cortex

Embora o Cortex tenha sido recém-anunciado para uso empresarial, a Snowflake já está aprimorando sua plataforma com três recursos impulsionados pelo Cortex em pré-visualização privada: Snowflake Copilot, Universal Search e Document AI.

O Snowflake Copilot serve como um assistente conversacional que permite aos usuários fazer perguntas sobre seus dados em linguagem simples, construir consultas SQL, refinar essas consultas e extrair insights. A Universal Search incorpora capacidades de busca impulsionadas por LLM, ajudando os usuários a identificar rapidamente dados e aplicações valiosas relevantes para suas necessidades. O Document AI facilita a extração de informações de documentos não estruturados armazenados na nuvem de dados da Snowflake, como valores de faturas ou termos contratuais.

Outros players da indústria de dados, como Databricks, introduziram capacidades semelhantes, incluindo o recente lançamento do LakehouseIQ, aumentando a concorrência com a Snowflake. A Informatica e a Dremio também oferecem soluções LLM, permitindo que as empresas gerenciem e consultem dados usando linguagem natural.

Anúncios Adicionais do Snowday 2023

Além do Cortex, a Snowflake anunciou avanços nas Iceberg Tables, permitindo que os usuários eliminem silos de dados e unifiquem suas informações dentro da nuvem de dados. A empresa também revelou novos recursos para sua solução de governança Horizon, incluindo monitoramento de qualidade de dados, visualização aprimorada da linhagem de dados, melhor classificação e um centro de confiança para segurança e conformidade entre nuvens.

Por fim, a Snowflake introduziu uma iniciativa de financiamento destinada a investir até $100 milhões em startups em estágio inicial que desenvolvem aplicações nativas da Snowflake, apoiada por seu braço de capital de risco e várias empresas, incluindo Altimeter Capital, Amplify Partners e Menlo Ventures.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles