Dell et Hugging Face s'associent pour simplifier le déploiement des grands modèles de langage.

Aujourd'hui, presque toutes les entreprises explorent les avantages des grands modèles de langage (LLMs) et de l'IA générative pour leurs opérations. Cependant, des préoccupations persistent, rappelant les débuts du cloud computing et de l'analyse big data : comment commencer la mise en œuvre ? Comment protéger les informations sensibles et propriétaires ? Et comment gérer le processus intensif en ressources du fine-tuning ?

Pour répondre à ces défis, Dell et Hugging Face s'associent afin de simplifier le déploiement sur site de LLMs personnalisés, permettant aux entreprises de maximiser les avantages de cette technologie en évolution. Matt Baker, SVP de la stratégie IA chez Dell, a souligné l'impact transformateur de l'IA générative lors d'un récent point presse, déclarant : « Il est impossible d'échapper aux discussions sur l'IA générative ou l'IA ». Il a reconnu la complexité impressionnante de la technologie.

Partenariat Dell-Hugging Face

Grâce à ce partenariat, Dell et Hugging Face mettront en place un portail dédié sur la plateforme Hugging Face, proposant des conteneurs personnalisés, des scripts et une documentation technique pour déployer des modèles open-source sur les serveurs et systèmes de stockage Dell. Disponible au départ pour les serveurs Dell PowerEdge via la console APEX, ce service s’étendra ensuite aux outils de stations de travail Precision et autres produits Dell. Le portail sera régulièrement mis à jour avec des conteneurs de modèles optimisés pour soutenir les derniers cas d'utilisation de l'IA générative. Jeff Boudier, responsable produit chez Hugging Face, a ajouté : « La seule façon de maîtriser votre destin en IA est de devenir un bâtisseur plutôt qu'un simple utilisateur. Cela ne peut être réalisé qu'avec l'open-source. »

Cette alliance s'inscrit dans l'engagement continu de Dell à se positionner comme un leader dans l'IA générative, incluant des ajouts récents tels que l'ObjectScale XF960, spécialement conçu pour les flux de travail IA et analytics. Baker a plaisanté sur le partenariat, affirmant : « J'essaie d'éviter les jeux de mots sur l'étreinte entre Dell et Hugging Face, mais c'est exactement ce que nous faisons. »

Défis de l'adoption de l'IA générative

Baker a identifié plusieurs obstacles à l'adoption de l'IA générative par les entreprises, tels que la complexité, le temps de mise en valeur, la fiabilité des fournisseurs, le retour sur investissement et la gestion des coûts. Semblable aux débuts de l'analyse big data, les entreprises ont du mal à faire passer les projets de la preuve de concept à la production tout en protégeant leur propriété intellectuelle. « Beaucoup d'entreprises sont accablées par la pression de répondre aux tendances de l'IA générative tout en protégeant leurs données uniques, » a noté Boudier, soulignant les risques associés à des outils populaires comme GitHub Copilot, où l'exposition du code est préoccupante.

Les recherches de Dell indiquent que 83 % des entreprises préfèrent des mises en œuvre sur site ou hybrides pour renforcer la sécurité de leur propriété intellectuelle. Baker a souligné : « Le déploiement sur site est crucial lorsqu'il s'agit de vos actifs les plus précieux. »

Modèles sélectionnés pour la performance et la précision

Le portail Dell-Hugging Face offrira une sélection de modèles optimisés pour la performance, la précision et les cas d'utilisation. Les organisations pourront choisir le modèle souhaité et la configuration Dell pour un déploiement simplifié au sein de leur infrastructure. « Imaginez un modèle LLama 2 spécifiquement affiné pour votre plateforme, prêt à l'emploi, » a déclaré Baker, mentionnant des applications potentielles telles que la génération de contenu marketing, les chatbots et le développement logiciel.

Baker a pour objectif d'éliminer la complexité pour les utilisateurs, décrivant cela comme « le bouton facile » pour déployer les capacités nécessaires de Hugging Face. Ce qui distingue cette initiative, c'est la capacité de Dell à calibrer les configurations, permettant un déploiement rapide des meilleures configurations de modèles sans partage de données avec des modèles publics. « Vos données restent les vôtres, » a affirmé Baker, ajoutant : « Une fois affiné, ce modèle vous appartient. »

Verticalisation dans l'IA

Le fine-tuning des modèles pour une performance optimale peut être chronophage. De nombreuses entreprises expérimentant l'IA générative utilisent maintenant la génération augmentée par récupération (RAG) en parallèle des LLMs standard. Cette technique améliore les tâches génératives en incorporant des sources de connaissances externes pour fournir le contexte nécessaire.

Baker a expliqué : « RAG permet aux utilisateurs de générer des instructions précises sans bâtir un nouveau modèle de zéro. » Pour simplifier encore le processus de fine-tuning, Dell prévoit d’introduire des outils containerisés utilisant des méthodes à paramètres efficaces telles que LoRA et QLoRA. Alors que les entreprises se concentrent de plus en plus sur leurs secteurs spécifiques, Baker affirme : « Toutes les entreprises deviendront essentiellement des entités verticales utilisant leurs données spécifiques. » Cette tendance ne se limite pas à des modèles spécifiques à un domaine ; il s’agit d’intégrer des données propriétaires avec des modèles pour obtenir des résultats génératifs sur mesure.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles