Les Modèles de Langue de Grande Taille (LLMs) : Plus Grand est-il Toujours Meilleur ?
Yasmeen Ahmad, directrice générale de la stratégie et de la gestion des produits chez Google Cloud pour les données, l'analyse et l'IA, a récemment partagé ses perspectives sur ce sujet lors de VB Transform. Sa réponse franche ? « Oui et non. »
Bien que les LLMs de grande taille aient tendance à mieux performer, cette supériorité n'est pas sans limites. Ahmad a souligné que des modèles plus petits, formés sur des données spécifiques à un domaine, peuvent surpasser leurs homologues plus grands. « Les données sont à la base de tout », a-t-elle noté, mettant en avant comment des informations ciblées par secteur dynamisent les modèles.
Cette approche encourage la créativité, l'efficacité et l'inclusivité au sein des entreprises. En exploitant des données auparavant inaccessibles, les organisations peuvent impliquer leurs employés de manière innovante.
« L'IA générative élargit les horizons de ce que les machines peuvent créer », a déclaré Ahmad. « Elle estompe la frontière entre technologie et magie, redéfinissant potentiellement notre conception de la magie. »
La Nécessité d'une Nouvelle Fondamentation en IA
La formation efficace des LLMs dans un contexte d'entreprise spécifique nécessite deux techniques clés : l’ajustement fin et la génération augmentée par récupération (RAG). L’ajustement fin permet aux LLMs de saisir « le langage de votre entreprise », tandis que le RAG connecte le modèle à des données en temps réel provenant de diverses sources, telles que des documents et des bases de données.
« Cela permet des réponses précises cruciales pour l'analyse financière, l'analyse des risques, et plus encore », a expliqué Ahmad.
La vraie force des LLMs réside dans leurs capacités multimodales, leur permettant de traiter divers types de données comme des vidéos, du texte et des images. Étant donné que 80 à 90 % des données d'entreprise sont multimodales, Ahmad a insisté sur l'importance d'exploiter les LLMs pour utiliser efficacement ces informations.
Une étude de Google a révélé une amélioration de 20 à 30 % de l'expérience client lorsque des données multimodales étaient utilisées, renforçant la capacité des entreprises à évaluer le sentiment des clients et à analyser la performance des produits par rapport aux tendances du marché.
« Il ne s'agit plus seulement de reconnaissance de motifs », a déclaré Ahmad. « Les LLMs peuvent comprendre les complexités de nos organisations en accédant à toutes les données disponibles. »
Les entreprises traditionnelles rencontrent des défis avec des infrastructures de données obsolètes qui peinent à traiter l'information multimodale. L'avenir de l'IA nécessite une nouvelle fondation conçue pour gérer cette complexité.
IA Conversationnelle : Le Rôle de l'Interaction
Ahmad a également souligné l'importance des interactions question-réponse dans les LLMs performants. Bien que dialoguer avec des données d'entreprise semble séduisant, cela pose des défis.
Par exemple, si vous demandez à un collègue les prévisions de ventes du prochain trimestre sans fournir de contexte, ses réponses risquent d'être vagues. Il en va de même pour les LLMs, qui nécessitent un contexte sémantique et des métadonnées pour fournir des réponses précises.
L'analyse humaine implique souvent un échange dialogue pour affiner les questions et obtenir des clarifications. De la même manière, les LLMs doivent favoriser des conversations cohérentes, évoluant d'interactions isolées à « la prochaine génération d’IA conversationnelle. »
« Pensez-y comme un compagnon de données personnel », a-t-elle suggéré. Ce travailleur inflexible peut s'engager dans des échanges réfléchis, permettant une transparence dans les requêtes afin que les utilisateurs puissent faire confiance aux résultats.
Ahmad a évoqué l'émergence de « l'IA agentique » — des systèmes capables de prendre des décisions et de poursuivre des objectifs. Ces modèles imitent les processus de pensée humains en décomposant les tâches en sous-tâches et en développant des compétences de réflexion stratégique.
Avec les avancées en capacités en temps réel, ces évolutions se produisent à un rythme sans précédent. « L'avenir est là, et il donne naissance à de nouvelles formes d'entreprises », a conclu Ahmad. « Nous ne sommes qu'au début de ce que cette technologie peut permettre. »