Hoy, la empresa de servicios de datos y almacenamiento en la nube con sede en Montana, Snowflake, presentó Cortex, un servicio totalmente gestionado que integra modelos de lenguaje grande (LLMs) en su nube de datos.
Revelado en el evento anual Snowday, Cortex equipa a las empresas que utilizan la nube de datos de Snowflake con un conjunto de herramientas de inteligencia artificial, que incluyen LLMs de código abierto, diseñadas para analizar datos y desarrollar aplicaciones para diversos casos de uso específicos del negocio.
“Con Snowflake Cortex, las empresas pueden aprovechar rápidamente los modelos de lenguaje grande, crear aplicaciones personalizadas impulsadas por LLM en minutos y mantener flexibilidad y control sobre sus datos, transformando la forma en que los usuarios utilizan la IA generativa para el crecimiento empresarial,” dijo Sridhar Ramaswamy, vicepresidente senior de IA en Snowflake.
Disponible hoy en vista previa privada, Cortex incluye una suite de modelos específicos para tareas que mejoran funciones dentro de la nube de datos. Snowflake planea utilizar este servicio para tres de sus herramientas de IA generativa: Snowflake Copilot, Búsqueda Universal y Document AI.
Desarrollo de Aplicaciones LLM con Cortex
Aunque las empresas están ansiosas por adoptar IA generativa, muchas enfrentan dificultades con las complejidades de la implementación tecnológica, que incluyen la necesidad de talento especializado y la gestión de infraestructuras de GPU intrincadas. Snowflake Cortex busca simplificar este proceso.
El servicio ofrece a los usuarios una variedad de funciones de IA sin servidor, tanto especializadas como de uso general. Estas funciones se pueden acceder mediante simples llamadas SQL o Python, habilitando a los usuarios para iniciar aplicaciones funcionales de IA en la infraestructura optimizada por costos de Cortex.
Arquitectura de Snowflake Cortex
Las funciones especializadas utilizan modelos de lenguaje y aprendizaje automático para facilitar tareas analíticas específicas con entradas en lenguaje natural. Por ejemplo, estos modelos pueden extraer respuestas, resumir datos y traducir idiomas. También pueden ayudar con pronósticos basados en datos proporcionados o detectar anomalías.
Por otro lado, las funciones de uso general brindan a los desarrolladores una amplia gama de modelos, desde LLMs de código abierto como Llama 2 hasta modelos propietarios de Snowflake, incluyendo uno que convierte entradas de texto en SQL para consultar datos.
Lo crucial es que estas funciones de uso general incluyen capacidades de incrustación de vectores y búsqueda, permitiendo a los usuarios contextualizar respuestas basadas en sus datos y crear aplicaciones personalizadas para diversos casos de uso, facilitadas a través de Streamlit en Snowflake.
“Esto es fantástico para nuestros usuarios porque no necesitan aprovisionar ningún recurso,” afirmó Ramaswamy. “Nosotros gestionamos el aprovisionamiento y la implementación, como si fuera una API, similar a las ofertas de OpenAI, pero completamente dentro de Snowflake. Nuestros clientes pueden estar seguros de que sus datos permanecen aislados y seguros, libres de riesgos de entrenamiento cruzado entre clientes.”
Ramaswamy destacó que no se requieren amplias habilidades de programación; los usuarios pueden operar dentro de SQL para cumplir con sus tareas.
En el lado de la aplicación, los usuarios pueden desarrollar fácilmente chatbots conversacionales adaptados a sus conocimientos empresariales, como un copiloto diseñado para contenido de ayuda.
Experiencias Nativas de LLM Impulsadas por Cortex
Aunque Cortex acaba de ser anunciado para su uso en empresas, Snowflake ya está mejorando su plataforma con tres características impulsadas por Cortex en vista previa privada: Snowflake Copilot, Búsqueda Universal y Document AI.
Snowflake Copilot actúa como un asistente conversacional que permite a los usuarios formular preguntas sobre sus datos en lenguaje sencillo, construir consultas SQL, refinar esas consultas y extraer información valiosa.
Búsqueda Universal incorpora capacidades de búsqueda impulsadas por LLM, ayudando a los usuarios a identificar rápidamente datos y aplicaciones valiosas relevantes para sus necesidades.
Document AI asiste en la extracción de información de documentos no estructurados almacenados en la nube de datos de Snowflake, como montos de facturas o términos contractuales.
Otros competidores en la industria de datos, como Databricks, han introducido capacidades similares, incluida la reciente implementación de LakehouseIQ, aumentando la competencia con Snowflake. Informatica y Dremio también ofrecen soluciones LLM, permitiendo a las empresas gestionar y consultar datos utilizando lenguaje natural.
Anuncios Adicionales de Snowday 2023
Más allá de Cortex, Snowflake anunció avances en Iceberg Tables, que permiten a los usuarios eliminar silos de datos y unificar su información dentro de la nube de datos. La empresa también presentó nuevas características para su solución de gobernanza Horizon, que incluyen monitoreo de calidad de datos, visualización mejorada de la línea de procedencia de datos, mejor clasificación y un centro de confianza para la seguridad y el cumplimiento en la nube.
Por último, Snowflake lanzó una iniciativa de financiamiento destinada a invertir hasta $100 millones en startups en etapas tempranas que desarrollen aplicaciones nativas de Snowflake, respaldada por su brazo de capital de riesgo y varias firmas, incluidas Altimeter Capital, Amplify Partners y Menlo Ventures.