Hoy, Snowflake presentó Arctic, un modelo de lenguaje grande (LLM) diseñado para tareas complejas en empresas, como la generación de SQL, la creación de código y el seguimiento de instrucciones.
Posicionado como el “LLM empresarial más abierto”, Arctic utiliza una arquitectura híbrida de expertos (MoE) que logra de manera eficiente los mejores estándares para cargas de trabajo empresariales. Su rendimiento es competitivo frente a modelos estándar de Databricks, Meta y Mistral en áreas como conocimiento general, sentido común, razonamiento y capacidades matemáticas.
“Este es un momento decisivo para Snowflake, con nuestro equipo de investigación en IA liderando la innovación”, afirmó el CEO Sridhar Ramaswamy. “Al ofrecer inteligencia y eficiencia de clase mundial de manera abierta, expandimos el potencial de la IA de código abierto. Nuestra investigación con Arctic mejorará significativamente nuestra capacidad para ofrecer IA confiable y eficiente a nuestros clientes”.
El lanzamiento refuerza la estrategia de Snowflake para competir con Databricks, que ha sido proactivo en sus iniciativas de IA. El enfoque de Snowflake en inteligencia artificial se ha intensificado recientemente tras la adquisición de Neeva y la designación de Ramaswamy como CEO.
Arctic: Diseñado para Cargas de Trabajo Empresariales
A medida que las empresas modernas adoptan la IA generativa, surge un aumento en el desarrollo de aplicaciones como chatbots de generación aumentada por recuperación (RAG), copilotos de datos y asistentes de código. Aunque existen numerosos modelos, pocos se enfocan en satisfacer los requisitos empresariales, lo que convierte a Snowflake Arctic en una opción destacada.
“Creemos que la IA potenciará el desarrollo de productos de IA de extremo a extremo. Nuestra visión es crear una API que permita a los usuarios empresariales interactuar directamente con los datos, democratizándolos en toda la empresa. Arctic es un paso crucial hacia la realización de esta visión”, comentó Ramaswamy en una reciente presentación.
Arctic utiliza una arquitectura híbrida de Dense MoE, segmentando parámetros en 128 subgrupos de expertos especializados. Estos expertos procesan únicamente los tokens de entrada que mejor manejan, activando solo 17 mil millones de los 480 mil millones de parámetros al responder a una consulta. Este enfoque dirigido asegura un alto rendimiento con un poder computacional mínimo.
Los benchmarks indican que Arctic aborda efectivamente las tareas empresariales, alcanzando un puntaje promedio del 65% en diversas pruebas. Este rendimiento se alinea estrechamente con el puntaje promedio empresarial del Llama 3 70B del 70% y solo es superado por el Mixtral 8X22B, que también logró un 70%.
En el benchmark Spider para la generación de SQL, Arctic obtuvo un 79%, superando los modelos de Databricks como DBRX y Mixtral 8X7B, y acercándose a Llama 3 70B y Mixtral 8X22B. En tareas de codificación, Arctic alcanzó un 64.3%, superando a Databricks y al modelo más pequeño de Mixtral, aunque se quedó atrás del Llama 3 70B y el Mixtral 8X22B.
Destacadamente, en el benchmark IFEval para capacidades de seguimiento de instrucciones, Arctic obtuvo un 52.4%, superando a la mayoría de sus competidores, excepto al modelo más reciente de Mixtral.
Eficiencia y Rentabilidad
Snowflake sostiene que el nivel de inteligencia empresarial de Arctic se logró con una eficiencia innovadora, utilizando un presupuesto de cómputo de entrenamiento de menos de $2 millones—significativamente menos que otros modelos como Llama 3 70B, que utilizó 17 veces más recursos computacionales. Además, el uso de solo 17 parámetros activos mejora aún más su rentabilidad.
Disponibilidad Bajo la Licencia Apache 2.0
Snowflake hará que Arctic sea accesible a través de Cortex, su servicio de desarrollo de aplicaciones LLM, y en varios catálogos de modelos, incluidos Hugging Face, Lamini, Microsoft Azure, el catálogo de API de Nvidia, Perplexity y Together. Los usuarios podrán descargar los pesos y el código del modelo de Arctic desde Hugging Face bajo una licencia Apache 2.0, facilitando su uso personal, comercial o de investigación sin restricciones.
Junto con el lanzamiento del modelo, Snowflake proporciona una receta de datos para un ajuste fino eficiente en una sola GPU y libros de cocina de investigación que detallan el diseño y los procesos de entrenamiento del modelo.
“El libro de cocina está diseñado para acelerar la curva de aprendizaje de quienes estén interesados en modelos MoE de clase mundial, ofreciendo tanto ideas generales como especificaciones técnicas detalladas para empoderar a los usuarios a construir LLMs eficientes y rentables como Arctic”, afirmó Baris Gultekin, líder de IA en Snowflake, durante la conferencia de prensa.