AWS представила инновационное решение для разработчиков машинного обучения, которым необходимы надежные вычислительные ресурсы. Запуск Amazon EC2 Capacity Blocks для машинного обучения позволяет пользователям резервировать мощности GPU специально для обучения и развертывания генеративного ИИ и крупных языковых моделей. Эта служба функционирует как система бронирования отелей, позволяя клиентам указывать свои требования, такие как количество экземпляров GPU и длительность бронирования. Такой подход гарантирует, что проекты машинного обучения могут продолжаться без перебоев и больше не будут ограничены недостатком вычислительной мощности.
С новым предложением компании могут эффективно обучать или донастраивать свои модели, проводить эксперименты или использовать сервис по мере необходимости для сценариев резервного копирования. Чанни Юн, ведущий разработчик-адвокат в AWS, подчеркнул: "Вы можете использовать EC2 Capacity Blocks, когда вам нужна гарантированная мощность для обучения или донастройки моделей машинного обучения, проведения экспериментов или планирования будущих пикового спроса на приложения машинного обучения."
В настоящее время услуга доступна для экземпляров Amazon EC2 P5, которые работают на GPU Nvidia H100 Tensor Core. Клиенты из региона AWS Восточное побережье США могут воспользоваться этой услугой. Ценовая структура динамична и зависит от спроса и предложения, предлагая пользователям гибкость в покупке блоков экземпляров GPU на срок от одного до 14 дней, а в некоторые периоды — до восьми недель заранее.
Этот шаг на рынок аренды GPU отражает более широкую тенденцию, поскольку различные компании стремятся использовать растущий спрос на высокопроизводительные вычислительные решения. В частности, NexGen Cloud планирует запустить сервис "AI Supercloud", позволяющий разработчикам арендовать ресурсы для обучения моделей. Кроме того, Hugging Face ранее в этом году представила решение Training Cluster as a Service, а правительство США значительно снизило арендную плату за свой суперкомпьютер Perlmutter.
В конкурентной среде производства чипов для ИИ Nvidia по-прежнему возглавляет рынок. В только втором квартале Nvidia отгрузила примерно 900 тонн GPU H100, однако такие конкуренты, как AMD, IBM и SambaNova, активно работают над тем, чтобы закрепиться на этом быстроразвивающемся рынке.