Google ha anunciado que su serie de modelos ligeros, Gemma 2, estará disponible para investigadores y desarrolladores a través de Vertex AI a partir del próximo mes. Esta serie, que inicialmente presentó un modelo de 27 mil millones de parámetros, ahora incluye una variante de 9 mil millones de parámetros, sorprendiendo a muchos en la comunidad tecnológica.
Gemma 2 fue revelada en Google I/O en mayo, sucediendo a los modelos anteriores de 2 mil millones y 7 mil millones de parámetros lanzados a principios de este año. Este modelo de próxima generación está optimizado para trabajar con las últimas GPU de Nvidia o con un único host TPU en Vertex AI. Su objetivo es apoyar a los desarrolladores que buscan integrar inteligencia artificial en aplicaciones y dispositivos de borde, como smartphones, dispositivos IoT y computadoras personales.
Los nuevos modelos de Gemma 2 reflejan avances en la tecnología de IA, permitiendo crear modelos más pequeños y eficientes que se adaptan a diversas necesidades de los usuarios. Con la introducción de opciones de 9 mil millones y 27 mil millones de parámetros, Google ofrece a los desarrolladores flexibilidad tanto para aplicaciones en dispositivos como en la nube. La naturaleza de código abierto de Gemma 2 también facilita la personalización e integración en proyectos variados.
Será interesante observar cómo las variantes existentes de Gemma—CodeGemma, RecurrentGemma y PaliGemma—aprovechan estos nuevos modelos para mejorar sus capacidades.
Además, Google planea lanzar pronto un modelo de 2.6 mil millones de parámetros, destinado a "cerrar la brecha entre la accesibilidad ligera y el rendimiento potente".
Gemma 2 está actualmente disponible a través de Google AI Studio, con pesos del modelo descargables desde Kaggle y Hugging Face. Los investigadores pueden acceder a Gemma 2 de forma gratuita a través de Kaggle o aprovechar el nivel gratuito ofrecido para los cuadernos de Colab.