Déverrouillez la puissance du machine learning haute performance : Louez des GPU AWS pour vos besoins de formation de modèles.

AWS a lancé une solution innovante pour les développeurs en apprentissage automatique à la recherche de ressources informatiques fiables. Avec le lancement des Amazon EC2 Capacity Blocks pour l'apprentissage automatique, les utilisateurs peuvent désormais réserver une capacité GPU spécifiquement dédiée à l'entraînement et au déploiement d'IA génératives et de modèles de langage étendus. Ce service fonctionne comme un système de réservation d'hôtel, permettant aux clients de définir leurs besoins, tels que le nombre d'instances GPU et la durée souhaitée. Cette approche garantit que les projets d'apprentissage automatique peuvent avancer sans interruption, ne souffrant plus de pénurie de puissance de calcul.

Grâce à cette nouvelle offre, les entreprises peuvent former ou ajuster efficacement leurs modèles, mener des expériences ou utiliser le service à la demande pour des scénarios de reprise après sinistre. Channy Yun, advocate principal pour les développeurs chez AWS, a souligné : « Vous pouvez utiliser les EC2 Capacity Blocks lorsque vous avez besoin d'une garantie de capacité pour former ou ajuster des modèles d'apprentissage automatique, réaliser des expériences ou prévoir des pics de demande pour les applications d'apprentissage automatique. »

Actuellement, le service est accessible pour les instances Amazon EC2 P5, alimentées par des GPU Nvidia H100 Tensor Core. Les clients situés dans la région AWS de l'Est des États-Unis peuvent en bénéficier. La structure tarifaire est dynamique et influencée par l'offre et la demande, offrant aux utilisateurs la flexibilité d'acheter des blocs d'instances GPU pour une durée allant d'un à 14 jours, et parfois jusqu'à huit semaines à l'avance.

Cette entrée sur le marché de la location de GPU reflète une tendance plus large, de nombreuses entreprises cherchant à tirer parti de l'augmentation de la demande pour des solutions de calcul haute performance. Notamment, NexGen Cloud prévoit de lancer un service 'AI Supercloud', permettant aux développeurs de louer des ressources pour l'entraînement de modèles. De plus, Hugging Face a introduit une solution de Training Cluster as a Service plus tôt cette année, et le gouvernement américain a considérablement réduit le prix de location de son superordinateur Perlmutter.

Dans le paysage compétitif de la production de puces AI, Nvidia reste à la pointe. Au cours du deuxième trimestre seulement, Nvidia a expédié environ 900 tonnes de GPU H100, tandis que des concurrents tels qu'AMD, IBM et SambaNova travaillent activement pour rattraper leur retard sur ce marché en évolution rapide.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles