À medida que empresas de diversos setores buscam realizar suas ambições em IA, fornecedores estão consolidando recursos em uma única plataforma para apoiar esses esforços. Um exemplo notável é a recente parceria estratégica entre Google e Hugging Face, que oferece aos desenvolvedores uma maneira eficiente de acessar os serviços do Google Cloud, acelerando a criação de aplicações abertas de IA generativa.
Por meio desta colaboração, equipes que utilizam modelos de código aberto da Hugging Face poderão treiná-los e implantá-los no Google Cloud. Essa integração proporciona acesso abrangente às ferramentas de IA do Google Cloud, incluindo o especializado Vertex AI, unidades de processamento de tensores (TPUs) e unidades de processamento gráfico (GPUs).
Clement Delangue, CEO da Hugging Face, afirmou: “Desde o artigo original sobre Transformers até T5 e o Vision Transformer, o Google tem sido fundamental para o avanço da IA e do movimento da ciência aberta. Esta parceria simplifica como os usuários da Hugging Face e os clientes do Google Cloud podem utilizar os modelos abertos mais recentes, juntamente com infraestrutura e ferramentas de IA otimizadas, aumentando significativamente a capacidade dos desenvolvedores de criar seus próprios modelos de IA.”
O que os usuários da Hugging Face podem esperar?
A Hugging Face tornou-se um hub central para IA, hospedando mais de 500.000 modelos de IA e 250.000 conjuntos de dados. Mais de 50.000 organizações dependem desta plataforma para suas iniciativas em IA. Simultaneamente, o Google Cloud se concentra em fornecer infraestrutura e ferramentas centradas em IA para empresas, enquanto contribui ativamente para a pesquisa em IA aberta.
Com esta parceria, as centenas de milhares de usuários da Hugging Face no Google Cloud a cada mês terão a capacidade de treinar, ajustar e implantar seus modelos usando o Vertex AI, a plataforma MLOps de ponta a ponta projetada para construir aplicações de IA generativa.
Os usuários acessarão essas capacidades através da plataforma Hugging Face com apenas alguns cliques. Eles também terão a opção de treinar e implantar modelos utilizando o Google Kubernetes Engine (GKE), permitindo uma infraestrutura personalizável que pode escalar contêineres de aprendizado profundo específicos da Hugging Face no GKE.
Além disso, os desenvolvedores poderão aproveitar as avançadas capacidades de hardware do Google Cloud, incluindo TPU v5e, máquinas virtuais (VMs) A3 alimentadas por GPUs Nvidia H100 Tensor Core e VMs C3 utilizando CPUs Intel Sapphire Rapids.
“Os modelos podem ser implantados de forma simples para produção no Google Cloud com pontos de acesso de inferência. Os desenvolvedores de IA poderão acelerar suas aplicações usando TPU nos espaços da Hugging Face. As organizações podem gerenciar de forma eficiente o uso e a cobrança de sua assinatura do Enterprise Hub através de sua conta do Google Cloud”, escreveram Jeff Boudier, Chefe de Produto e Crescimento na Hugging Face, junto com o Líder Técnico Philipp Schmid em um post conjunto no blog.
Ainda não disponível
Embora essa colaboração tenha sido anunciada, é importante notar que os recursos aprimorados, incluindo opções de implantação do Vertex AI e GKE, ainda não estão disponíveis. As empresas têm como objetivo lançar essas funcionalidades para os usuários do Hugging Face Hub no primeiro semestre de 2024.