Während Unternehmen aus verschiedenen Sektoren ihre KI-Ambitionen verwirklichen möchten, konsolidieren Anbieter ihre Ressourcen zur Unterstützung dieser Anstrengungen auf einer einzigen Plattform. Ein bemerkenswertes Beispiel ist die kürzlich angekündigte strategische Partnerschaft zwischen Google und Hugging Face, die Entwicklern eine effiziente Möglichkeit bietet, auf die Google Cloud-Dienste zuzugreifen und die Erstellung offener generativer KI-Anwendungen zu beschleunigen.
Durch diese Zusammenarbeit können Teams, die Open-Source-Modelle von Hugging Face nutzen, diese auf Google Cloud trainieren und bereitstellen. Diese Integration bietet umfassenden Zugang zu den KI-Tools von Google Cloud, einschließlich des spezialisierten Vertex AI, Tensor Processing Units (TPUs) und Graphics Processing Units (GPUs).
Clement Delangue, CEO von Hugging Face, erklärte: „Von dem ursprünglichen Transformers-Papier über T5 bis hin zum Vision Transformer war Google maßgeblich an der Förderung von KI und der offenen Wissenschaftsbewegung beteiligt. Diese Partnerschaft vereinfacht es Hugging Face-Nutzern und Google Cloud-Kunden, die neuesten offenen Modelle zusammen mit optimierter KI-Infrastruktur und -Tools zu nutzen, was die Kapazität der Entwickler zur Erstellung eigener KI-Modelle erheblich steigert.“
Was können Hugging Face-Nutzer erwarten?
Hugging Face hat sich als zentrales Hub für KI etabliert und hostet über 500.000 KI-Modelle und 250.000 Datensätze. Mehr als 50.000 Organisationen verlassen sich auf diese Plattform für ihre KI-Initiativen. Gleichzeitig konzentriert sich Google Cloud darauf, Unternehmen eine KI-zentrierte Infrastruktur und Tools bereitzustellen und aktiv zur offenen KI-Forschung beizutragen.
Dank dieser Partnerschaft werden die Hunderttausenden von Hugging Face-Nutzern, die monatlich Google Cloud nutzen, die Möglichkeit haben, ihre Modelle mit Vertex AI zu trainieren, anzupassen und bereitzustellen – einer End-to-End-MLOps-Plattform, die für die Entwicklung generativer KI-Anwendungen konzipiert ist.
Diese Funktionen sind über die Hugging Face-Plattform mit nur wenigen Klicks zugänglich. Nutzer haben zudem die Option, Modelle mithilfe des Google Kubernetes Engine (GKE) zu trainieren und bereitzustellen, was eine anpassbare Infrastruktur ermöglicht, die Hugging Face-spezifische Deep-Learning-Container auf GKE skalieren kann.
Darüber hinaus können Entwickler die fortschrittlichen Hardwarefähigkeiten von Google Cloud nutzen, einschließlich TPU v5e, A3-VMs, die von Nvidia H100 Tensor Core GPUs betrieben werden, und C3-VMs mit Intel Sapphire Rapids CPUs.
„Modelle können problemlos für die Produktion in Google Cloud mit Inference-Endpunkten bereitgestellt werden. KI-Entwickler können ihre Anwendungen mithilfe von TPU in Hugging Face-Räumen beschleunigen. Organisationen können die Nutzung und Abrechnung für ihr Enterprise Hub-Abonnement effizient über ihr Google Cloud-Konto verwalten“, schrieben Jeff Boudier, Head of Product and Growth bei Hugging Face, sowie der Technische Leiter Philipp Schmid in einem gemeinsamen Blogbeitrag.
Derzeit noch nicht verfügbar
Obwohl diese Zusammenarbeit angekündigt wurde, ist es wichtig zu beachten, dass die erweiterten Funktionen, einschließlich Vertex AI und GKE-Bereitstellungsoptionen, derzeit nicht verfügbar sind. Die Unternehmen streben an, diese Funktionen in der ersten Hälfte von 2024 für die Nutzer des Hugging Face Hub einzuführen.