A medida que las empresas de diversos sectores buscan cumplir con sus objetivos de IA, los proveedores están consolidando recursos para apoyar estos esfuerzos en una única plataforma. Un ejemplo destacado es la reciente asociación estratégica entre Google y Hugging Face, que ofrece a los desarrolladores una forma eficiente de acceder a los servicios de Google Cloud, acelerando la creación de aplicaciones de IA generativa abiertas.
A través de esta colaboración, los equipos que utilizan modelos de código abierto de Hugging Face podrán entrenarlos y desplegarlos en Google Cloud. Esta integración proporciona acceso completo a las herramientas de IA de Google Cloud, incluyendo Vertex AI, unidades de procesamiento tensorial (TPUs) y unidades de procesamiento gráfico (GPUs).
Clement Delangue, CEO de Hugging Face, comentó: “Desde el documento original de Transformers hasta T5 y el Vision Transformer, Google ha sido fundamental en el avance de la IA y el movimiento por la ciencia abierta. Esta asociación simplifica cómo los usuarios de Hugging Face y los clientes de Google Cloud pueden utilizar los últimos modelos abiertos junto a una infraestructura y herramientas de IA optimizadas, mejorando significativamente la capacidad de los desarrolladores para crear sus propios modelos de IA.”
¿Qué pueden anticipar los usuarios de Hugging Face?
Hugging Face se ha consolidado como un centro central para la IA, albergando más de 500,000 modelos de IA y 250,000 conjuntos de datos. Más de 50,000 organizaciones dependen de esta plataforma para sus iniciativas de IA. Al mismo tiempo, Google Cloud se centra en proporcionar a las empresas una infraestructura y herramientas centradas en IA, mientras contribuye activamente a la investigación en IA abierta.
Gracias a esta asociación, las cientos de miles de usuarios de Hugging Face en Google Cloud cada mes podrán entrenar, ajustar y desplegar sus modelos utilizando Vertex AI, la plataforma MLOps de extremo a extremo diseñada para crear aplicaciones de IA generativa.
Los usuarios accederán a estas capacidades a través de la plataforma Hugging Face con solo unos clics. También tendrán la opción de entrenar y desplegar modelos utilizando Google Kubernetes Engine (GKE), lo que permite una infraestructura personalizable que puede escalar contenedores de aprendizaje profundo específicos de Hugging Face en GKE.
Además, los desarrolladores aprovecharán las avanzadas capacidades de hardware de Google Cloud, incluyendo TPU v5e, máquinas virtuales (VMs) A3 alimentadas por GPUs Nvidia H100 Tensor Core y VMs C3 que utilizan CPUs Intel Sapphire Rapids.
“Los modelos se pueden desplegar sin esfuerzo para producción en Google Cloud con puntos finales de inferencia. Los desarrolladores de IA podrán acelerar sus aplicaciones utilizando TPU en los espacios de Hugging Face. Las organizaciones podrán gestionar de manera eficiente el uso y la facturación de su suscripción a Enterprise Hub a través de su cuenta de Google Cloud,” escribieron Jeff Boudier, Jefe de Producto y Crecimiento en Hugging Face, junto con el Líder Técnico Philipp Schmid en una publicación conjunta.
Aún no disponible
Aunque se ha anunciado esta colaboración, es importante destacar que las capacidades mejoradas, incluyendo Vertex AI y opciones de despliegue en GKE, actualmente no están disponibles. Las empresas tienen como objetivo lanzar estas funciones para los usuarios de Hugging Face Hub en la primera mitad de 2024.