Dell Technologies Élargit ses Capacités en IA Générative lors de la Conférence Dell Technologies World
Dell Technologies renforce ses offres d'IA générative avec une série d'annonces faites lors de la conférence annuelle Dell Technologies World.
Présentation de la Dell AI Factory
La Dell AI Factory représente une nouvelle stratégie visant à simplifier, sécuriser et rendre plus abordable l'adoption de l'IA pour les entreprises. Cette initiative s'articule autour d'une collaboration approfondie avec Nvidia, prolongement des solutions annoncées en juillet 2023. Le partenariat intègre le matériel et les logiciels de Dell et Nvidia pour soutenir les initiatives d'IA générative des entreprises, en particulier dans le domaine de la génération augmentée par recherche (RAG) et des assistants numériques. Par ailleurs, Dell lance un nouveau matériel optimisé pour les GPU Nvidia Blackwell récemment dévoilés.
Renforcement des Liens avec Hugging Face et Meta
Dell approfondit son intégration avec Hugging Face, à la suite d'une collaboration initiée en novembre 2023 pour améliorer ses offres aux entreprises. De même, Dell poursuit son partenariat avec Meta pour soutenir Llama 3, élargissant ainsi leur travail précédent sur Llama 2.
Simplification de l’Implémentation de l’IA sur Site
Face à de nombreuses options d'IA générative basées sur le cloud, Dell s’efforce de simplifier l'évaluation et la mise en œuvre des technologies d'IA générative pour les entreprises sur site. "Notre objectif est d'aider les clients à tirer de la valeur de leurs charges de travail IA dès que possible", a déclaré Varun Chhabra, Vice-Président Senior chez Dell Technologies.
Avancées au-delà du Projet Helix
Les annonces de Dell lors de la conférence marquent une progression par rapport à l'initiative Projet Helix de l'année dernière, qui se concentrait fortement sur la formation. "Lorsque nous avons lancé le Projet Helix, l'accent était mis sur la formation," a déclaré Manuvir Das, VP de l'Informatique d'Enterprise chez Nvidia. "Aujourd'hui, nous priorisons l'inférence et l'application pratique des modèles."
Microservices d'Inferences Nvidia
Les nouveaux Microservices d'Inference Nvidia (NIM) constituent une addition significative au partenariat. Ces microservices allègent les défis de déploiement pour les développeurs en configurant automatiquement l'environnement pour une exécution efficace et sécurisée des modèles d'IA, permettant ainsi de se concentrer sur le développement d'applications sans se soucier des complexités de déploiement.
Accélération des Déploiements RAG
Le paysage de l'IA générative a évolué, en particulier concernant la connectivité des entreprises à leurs données. Le RAG est devenu essentiel pour relier les magasins de données existants aux déploiements d'IA générative. Les nouveaux services d'accélérateur Dell pour le RAG, spécifiquement conçus pour les stations de travail Precision AI, aident les développeurs à créer et tester des cas d'utilisation RAG en utilisant le matériel Dell en conjonction avec la plateforme de développement Nvidia AI Workbench. La technologie NeMo Retriever de Nvidia fait partie de cette initiative, offrant aux organisations la flexibilité de sélectionner les bases de données vectorielles essentielles pour les implémentations RAG.
Collaboration avec les Partenaires pour Améliorer l'IA Générative
Au-delà de Nvidia, Dell collabore activement avec divers partenaires pour renforcer ses capacités en IA générative. L'entreprise élargit son partenariat avec Hugging Face pour fournir aux utilisateurs d'entreprise des modèles ouverts sélectionnés. Le Dell Enterprise Hub vise à simplifier le déploiement de ces modèles sur site.
Dell continue de travailler avec Meta pour fournir des guides de déploiement et des tests de performance pour les modèles Llama 3. En outre, une collaboration avec Microsoft progresse, offrant des solutions Azure AI sur l'infrastructure de Dell. La nouvelle solution Dell AI pour les services Azure AI de Microsoft permet aux entreprises d'utiliser les capacités de Microsoft Azure sur site en utilisant les mêmes API disponibles dans Azure.
"Cette flexibilité permet aux organisations d'intégrer divers services Azure AI—comme le traitement du langage, la traduction, la reconnaissance vocale, l'intelligence documentaire et la vision—plus près de leurs données, qui se trouvent souvent sur site," a noté Chhabra.