Stability AI presenta una emocionante actualización del modelo Stable LM 2 con 12 mil millones de parámetros.

Stability AI mantiene un rápido ritmo de innovación con el lanzamiento de Stable LM 2, un modelo de 12 mil millones de parámetros presentado hoy. Aunque Stability AI es ampliamente reconocida por su tecnología de generación de imágenes a partir de texto, Stable Diffusion, la empresa abarca una variedad más amplia de modelos de IA generativa más allá de la simple creación de imágenes.

Stable LM debutó en abril de 2023 como un modelo de lenguaje grande (LLM) para contenido textual, recibiendo su primera actualización con el Stable LM 2 de 1.6 mil millones de parámetros en enero. El nuevo Stable LM 2 12B mejora significativamente las capacidades del modelo, con más parámetros y un rendimiento mejorado que, según la empresa, supera a modelos más grandes como Llama 2 70B en ciertos benchmarks.

El Stable LM 2 12B presenta tanto una versión base como una variante ajustada para instrucciones, orientada a perfeccionar las habilidades conversacionales en siete idiomas: inglés, español, alemán, italiano, francés, portugués y neerlandés. Estos modelos están disponibles para uso comercial a través de una membresía de Stability AI, el modelo de ingresos de la empresa.

“El modelo de instrucciones está diseñado específicamente para interactuar con los usuarios de manera conversacional,” declaró Carlos Riquelme, líder del equipo de lenguaje de Stability AI. “Además, hemos invertido un esfuerzo significativo en mejorar la seguridad”.

Esta actualización se produce tras la reciente renuncia del cofundador y CEO Emad Mostaque en medio de controversias de gestión, pero demuestra el inquebrantable impulso de la empresa bajo los co-CEOs interinos Shan Shan Wong y Christian Laforte.

Stability AI busca combinar rendimiento y accesibilidad a través de Stable LM 2, afirmando que el modelo 12B encuentra un equilibrio ideal entre potencia, precisión y facilidad de uso. Con sus 12 mil millones de parámetros, puede abordar tareas que normalmente están reservadas para modelos mucho más grandes. Los resultados de benchmarks indican que el Stable LM 2 12B se desempeña notablemente bien frente a competidores mucho más grandes.

Importante destacar, la metodología utilizada para desarrollar el modelo más pequeño de 1.6B se aplicó también en la creación de la nueva versión de 12B. “Visualizamos un futuro en el que los modelos no funcionen de manera aislada, sino como parte de sistemas complejos, permitiendo interacciones entre múltiples modelos de lenguaje y herramientas de software externas,” explicó Riquelme. “El modelo de 12B ha sido entrenado para cumplir un papel de ‘maestro’, conectándose y utilizando diversas funciones y APIs relevantes para las necesidades de los usuarios."

Stability AI también está mejorando el modelo de 1.6B previamente lanzado. Riquelme destacó que, si bien el modelo más pequeño puede manejar tareas específicas de manera efectiva, el 12B ofrece una mayor capacidad. No obstante, el actualizado Stable LM 2 1.6B ha mejorado sus habilidades conversacionales, incrementado las medidas de seguridad y mejorado la compatibilidad con otras herramientas de software.

“Retiene su tamaño anterior, garantizando que siga siendo rápido y ligero,” observó Riquelme. “En cambio, el modelo de 12B es más poderoso y confiable pero requiere mayores recursos computacionales.”

Enfatizó que, dependiendo de los casos de uso y la disponibilidad de recursos —como tiempo de respuesta, memoria y presupuesto—, cada modelo presenta ventajas y desventajas únicas. “Creemos que no hay un tamaño de modelo óptimo para cada escenario, por eso ofrecemos dos modelos distintos,” concluyó.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles