Les remarquables capacités de traitement du langage naturel de l'IA générative, alimentée par de grands modèles de langage (LLMs), ont solidement ancré l'IA sous les projecteurs publics. Ces modèles étendus représentent sans doute l'un des plus grands progrès de notre époque. Paradoxalement, l'évolution de l'IA voit désormais de nombreux LLMs open-source conduire au développement de milliers de LLMs spécifiques à des secteurs pour les entreprises.
Les services d'IA basés sur des LLM peuvent automatiser des tâches courantes et servir d'assistants à la productivité. Cependant, pour que l'IA puisse s'attaquer à des défis complexes, améliorer la mission fondamentale d'une organisation et personnaliser les expériences des consommateurs, les LLMs doivent devenir spécialisés. De nombreux experts de l'industrie s'accordent à dire que la majorité de l'intelligence artificielle dans la plupart des organisations sera fournie par des modèles experts agiles opérant sur l'infrastructure informatique existante des entreprises, à la périphérie et chez les clients.
Les LLMs offrent-ils un avantage concurrentiel ?
Les LLMs comptant des centaines de milliards de paramètres sont formés sur des données à l'échelle du web à l'aide de clusters à l'échelle des centres de données, aboutissant à des plateformes d'IA polyvalentes pour des requêtes générales déployées par les fournisseurs de cloud ou les entreprises de services d'IA. Le développement de tels modèles coûte plusieurs centaines de millions de dollars, avec des dépenses opérationnelles continues se chiffrant en dizaines de millions. Ces grands modèles excellent dans la génération de résultats généralistes et non-propriétaires à partir de données publiques. Comme la plupart des organisations utilisent des services d'IA générative similaires via des appels API, l'avantage principal réside simplement dans le maintien d'une compétition.
Pour créer des produits et services uniques, améliorer l'engagement client et augmenter l'efficacité des coûts, les organisations ont besoin de modèles précis et fiables, formés sur des données privées spécifiques à un domaine. Cela permet d'éviter les erreurs, les biais et les dommages potentiels à la réputation. La complexité du cas d'utilisation est directement corrélée à la précision du modèle, soulignant l'importance de l'intégration de données propriétaires. Les grands modèles peuvent s'avérer encombrants et inefficaces pour des applications critiques, rendant des modèles plus petits et plus agiles préférables.
Heureusement, il existe des LLMs préentraînés open-source 10 à 100 fois plus petits que leurs homologues plus grands, tout en conservant une haute précision. Ces modèles plus petits peuvent être rapidement ajustés à l'aide de méthodes de génération augmentée par récupération (RAG) avec des données privées, créant ainsi des modèles experts fiables adaptés à des besoins commerciaux spécifiques. Les organisations peuvent désormais développer un modèle rapidement et le déployer sur des serveurs existants, évitant ainsi les processus longs et coûteux associés aux grands modèles. Cette approche est durable et économique pour l'échelle de l'IA à travers les applications.
Grands modèles et services d'IA :
- Avantages : polyvalence incroyable, résultats convaincants, intégration rapide via API, ensembles de données à l'échelle du web.
- Inconvénients : gestion complexe, coûts d'entraînement et de maintenance élevés, potentiel de hallucination et biais, préoccupations relatives à la sécurité, sources de données inconnues.
Écosystème des petits modèles de langage :
- Avantages : taille réduite avec une précision améliorée, protection des données et sécurité accrues, explicabilité, ajustement et déploiement économiques.
- Inconvénients : nécessité d'un ajustement avec peu d'échantillons, nécessité d'indexer les données sources, gamme de tâches réduite.
Pourquoi les entreprises géreront-elles leurs propres LLMs ?
La plupart des organisations utiliseront des services API pour des tâches courantes tout en adoptant des modèles d'IA privés pour des cas d'utilisation spécifiques à l'entreprise. Lors de la décision de quels modèles d'IA auto-gérer, il convient de prendre en compte :
- Confidentialité des données : protéger les informations sensibles et obtenir un avantage concurrentiel tout en respectant les réglementations de gouvernance des données.
- Précision : garantir le bon fonctionnement des applications critiques afin de protéger la réputation.
- Explicabilité : pouvoir retracer les résultats jusqu'aux sources de données avant de prendre des décisions significatives et surveiller en permanence la cohérence.
- Coût : gérer des modèles persistants sur l'infrastructure informatique existante est généralement moins coûteux.
- Proximité : co-localiser les modèles avec les applications assure des temps de réponse rapides.
- Intégration : déploiement fluide dans la logique commerciale existante et les systèmes de décision informatique.
Comprendre vos exigences et options de modèle
L'IA est souvent mal représentée comme des applications isolées en concurrence pour la performance. Cependant, nous pensons que l'IA deviendra finalement une fonction intégrée dans chaque application, utilisant l'infrastructure informatique existante. Comprendre vos données, vos besoins en cas d'utilisation et vos options de modèle d'IA est essentiel pour une mise en œuvre réussie. Bien que certaines entreprises disposant de grandes quantités de données et de tâches spécifiques puissent souhaiter développer leurs propres grands modèles de langage, la plupart bénéficieront de modèles open-source agiles pour des tâches comme le service client ou le traitement des commandes.
La prolifération de l'IA nécessite un calcul accéléré en fonction des exigences des applications. Les modèles seront acquis dans l'écosystème open-source, ajustés avec des données privées ou intégrés à des logiciels commerciaux. La base d'un cas d'utilisation d'IA prêt pour la production implique un travail étendu au-delà du LLM lui-même, englobant l'ingestion de données, le stockage, le traitement, le service d'inférence, la validation et la surveillance. Ainsi, une plateforme de calcul doit prendre en charge la préparation des données, la construction de modèles et le déploiement.
Intel propose une plateforme d'IA de bout en bout, y compris l'accélérateur Intel® Gaudi® pour une performance optimale et économique—offrant jusqu'à 4x la performance par dollar par rapport au Nvidia H100—et le CPU Intel® Xeon® de 5e génération avec des fonctionnalités IA intégrées, répondant aux besoins des petits LLMs et autres charges de travail d'IA.
- Modèles : recettes de modèle automatisées et optimisation pour des milliers de modèles sur des plateformes comme Hugging Face, GitHub et le Gaudi Developer Hub.
- Logiciel : Logiciels Intel® Gaudi® et suite logicielle Intel AI validés avec plus de 400 modèles d'IA sous des frameworks standard de l'industrie.
- Prêt pour l'entreprise : Modèles d'IA ajustés validés pour la production utilisant VMware Private AI et Red Hat OpenShift sur serveurs OEM basés sur Xeon.
Votre parcours vers l'IA générative commence maintenant
Le parcours des entreprises débute par l'identification des cas d'usages commerciaux—qu'il s'agisse d'économies de coûts grâce à l'optimisation des opérations, d'augmentation des revenus via des expériences clients améliorées, ou de la suppression de tâches ennuyeuses pour augmenter la satisfaction des employés. Les développeurs devraient commencer avec un LLM open-source ou un modèle spécifique au cas d'utilisation, en s'assurant qu'ils comprennent les exigences de données et disposent des outils logiciels appropriés pour un coût de performance optimal et une facilité d'utilisation.
Découvrez les modèles d'IA générative open-source d'Intel sur Hugging Face et lancez votre parcours vers l'IA générative.