A AWS lançou uma solução inovadora para desenvolvedores de machine learning que precisam de recursos computacionais confiáveis. Com o lançamento do Amazon EC2 Capacity Blocks para machine learning, os usuários podem reservar capacidade de GPU especificamente para treinamento e implantação de IA generativa e grandes modelos de linguagem. Este serviço funciona como um sistema de reservas de hotel, permitindo que os clientes especifiquem suas necessidades, como o número de instâncias de GPU e a duração do uso. Essa abordagem garante que os projetos de machine learning avancem sem interrupções, sem serem limitados pela escassez de poder computacional.
Com esta nova oferta, as empresas podem treinar ou ajustar seus modelos de maneira eficiente, realizar experimentos ou utilizar o serviço sob demanda para cenários de recuperação de desastres. Channy Yun, uma defensora principal de desenvolvedores na AWS, ressaltou: “Você pode usar EC2 Capacity Blocks quando precisar de garantia de capacidade para treinar ou ajustar modelos de machine learning, executar experimentos ou planejar aumentos futuros na demanda por aplicações de machine learning.”
O serviço está atualmente disponível para instâncias Amazon EC2 P5, alimentadas por GPUs Nvidia H100 Tensor Core. Clientes na Região Leste dos EUA da AWS podem aproveitar este serviço. A estrutura de preços é dinâmica e influenciada pela oferta e demanda, oferecendo aos usuários a flexibilidade de comprar blocos de instâncias de GPU que variam de um a 14 dias, e, em alguns casos, até oito semanas de antecedência.
Essa movimentação no mercado de aluguel de GPUs reflete uma tendência mais ampla, já que diversas empresas estão buscando aproveitar a crescente demanda por soluções de computação de alto desempenho. Notavelmente, a NexGen Cloud planeja lançar um serviço de "AI Supercloud", permitindo que desenvolvedores aluguem recursos para treinamento de modelos. Além disso, a Hugging Face introduziu uma solução de Treinamento em Cluster como Serviço no início deste ano, e o governo dos EUA reduziu significativamente o preço de aluguel de seu supercomputador Perlmutter.
No competitivo cenário da produção de chips de IA, a Nvidia continua liderando o mercado. Apenas no segundo trimestre, a Nvidia enviou aproximadamente 900 toneladas de GPUs H100, enquanto concorrentes como AMD, IBM e SambaNova trabalham ativamente para conquistar espaço neste mercado em rápida evolução.