Google lanza la serie Gemma 2: Presentamos un modelo de 27 mil millones de parámetros que puede funcionar con solo un TPU.

Cuando Google DeepMind presentó Gemma en febrero pasado, lanzó dos modelos de código abierto con 2 mil millones y 7 mil millones de parámetros. En la conferencia para desarrolladores Google I/O de este año, la empresa dio a conocer la serie Gemma 2, comenzando con un modelo ligero que cuenta con impresionantes 27 mil millones de parámetros. Sin embargo, su lanzamiento está programado para junio.

“Este modelo de 27B fue seleccionado intencionalmente”, afirmó Josh Woodward, Vicepresidente de Google Labs, durante una reciente mesa redonda. “Está optimizado para las GPU de próxima generación de Nvidia o un solo TPU en Vertex AI, lo que lo hace fácil de usar. Ya estamos observando una excelente calidad, con un rendimiento que supera a modelos que son el doble de su tamaño”.

Gemma está diseñada para desarrolladores que buscan integrar IA en aplicaciones y dispositivos sin requerir una memoria o potencia de procesamiento extensas. Esto la convierte en una opción ideal para entornos con recursos limitados, como teléfonos inteligentes, dispositivos IoT y computadoras personales. Desde su lanzamiento inicial, Google ha introducido varias variantes, incluyendo CodeGemma para la autocompletación de código, RecurrentGemma para una mejor eficiencia de memoria, y el recientemente lanzado PaliGemma para tareas de visión y lenguaje.

Con 27 mil millones de parámetros, Gemma 2 está preparada para ofrecer mayor precisión y rendimiento en tareas más complejas en comparación con sus predecesores. El acceso a un mayor conjunto de datos de entrenamiento permite a la IA generar respuestas de mayor calidad más rápidamente.

Aunque Woodward mencionó que Gemma 2 está diseñada para funcionar en un solo TPU, se refirió específicamente al TPUv5e, el chip de última generación de Google lanzado en agosto pasado. Esto significa que Gemma 2 requerirá un único chip de IA especializado para optimizar los cálculos, resultando en una menor latencia y mayor eficiencia en tareas como el reconocimiento de imágenes y el procesamiento del lenguaje natural. Esta eficiencia se traduce en ahorros de costos para los desarrolladores, permitiéndoles reinvertir recursos en sus aplicaciones.

El debut de Gemma 2 coincide con el lanzamiento de GPT-4o de OpenAI, su LLM multimodal, y se presenta como una “actualización significativa”, especialmente para los usuarios gratuitos de ChatGPT.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles