Alors que les entreprises de divers secteurs s'efforcent de réaliser leurs ambitions en matière d'IA, les fournisseurs unifient leurs ressources pour soutenir ces efforts sur une seule plateforme. Un exemple marquant est le partenariat stratégique récent entre Google et Hugging Face, qui offre aux développeurs un moyen efficace d'accéder aux services de Google Cloud, accélérant ainsi la création d'applications génératives d'IA ouvertes.
Grâce à cette collaboration, les équipes utilisant des modèles open-source de Hugging Face pourront les entraîner et les déployer sur Google Cloud. Cette intégration permet un accès complet aux outils d'IA de Google Cloud, y compris Vertex AI, les unités de traitement tensoriel (TPUs) et les unités de traitement graphique (GPUs).
Clement Delangue, PDG de Hugging Face, a déclaré : « Depuis l'article original sur les Transformers jusqu'à T5 et le Vision Transformer, Google a été essentiel dans l'avancement de l'IA et du mouvement pour la science ouverte. Ce partenariat simplifie l'utilisation des derniers modèles ouverts par les utilisateurs de Hugging Face et les clients de Google Cloud, tout en optimisant l'infrastructure et les outils d'IA, ce qui augmente significativement la capacité des développeurs à créer leurs propres modèles d'IA. »
Qu'attendre des utilisateurs de Hugging Face ?
Hugging Face est devenu un centre névralgique pour l'IA, avec plus de 500 000 modèles et 250 000 ensembles de données hébergés. Plus de 50 000 organisations s'appuient sur cette plateforme pour leurs initiatives d'IA. Parallèlement, Google Cloud se concentre sur la fourniture d'une infrastructure et d'outils axés sur l'IA, tout en contribuant activement à la recherche ouverte en IA.
Avec ce partenariat, les centaines de milliers d'utilisateurs de Hugging Face sur Google Cloud chaque mois pourront entraîner, affiner et déployer leurs modèles à l'aide de Vertex AI, la plateforme MLOps de bout en bout conçue pour construire des applications génératives d'IA. Les utilisateurs accéderont à ces fonctionnalités via la plateforme Hugging Face en quelques clics seulement. Ils auront également la possibilité d'entraîner et de déployer des modèles en utilisant Google Kubernetes Engine (GKE), ce qui permettra une infrastructure personnalisable capable de faire évoluer des conteneurs d'apprentissage profond spécifiques à Hugging Face sur GKE.
De plus, les développeurs profiteront des capacités matérielles avancées de Google Cloud, notamment les TPU v5e, les machines virtuelles A3 alimentées par les GPU Nvidia H100 Tensor Core, et les VMs C3 utilisant des CPU Intel Sapphire Rapids.
« Les modèles peuvent être déployés sans effort en production sur Google Cloud avec des points de terminaison d'inférence. Les développeurs d'IA pourront accélérer leurs applications en utilisant TPU sur les espaces Hugging Face. Les organisations peuvent gérer efficacement l'utilisation et la facturation de leur abonnement à l’Enterprise Hub via leur compte Google Cloud », ont écrit Jeff Boudier, Responsable Produit et Croissance chez Hugging Face, et le Responsable Technique Philipp Schmid dans un article de blog commun.
Pas encore disponible
Bien que cette collaboration ait été annoncée, il est important de noter que les capacités améliorées, y compris les options de déploiement Vertex AI et GKE, ne sont pas encore disponibles. Les entreprises visent à lancer ces fonctionnalités pour les utilisateurs de Hugging Face Hub au cours du premier semestre 2024.