Des chercheurs de Microsoft présentent un cadre pour le développement d'applications basées sur des modèles de langue de grande taille augmentés par des données.

Améliorer les modèles de langage à grande échelle (LLMs) en intégrant des connaissances allant au-delà de leurs données d'entraînement est essentiel pour les applications d'entreprise. Une approche phare pour intégrer des connaissances spécifiques au domaine et aux clients dans les LLMs est la génération augmentée par récupération (RAG). Cependant, les méthodes RAG de base montrent souvent leurs limites.

Pour construire des applications de LLM augmentées par les données, il est crucial de prendre en compte plusieurs facteurs. Une étude récente de chercheurs de Microsoft propose un cadre pour catégoriser différents types de tâches RAG en fonction du type de données externes nécessaires et de la complexité du raisonnement impliqué. « Les applications de LLM augmentées par les données ne sont pas une solution universelle », notent les chercheurs. « Les exigences du monde réel, en particulier dans des domaines d'expertise, sont complexes et peuvent varier considérablement dans leur rapport avec les données fournies et le raisonnement requis. »

Pour naviguer dans cette complexité, les chercheurs proposent une catégorisation des requêtes utilisateur en quatre niveaux :

- Faits explicites : Requêtes nécessitant la récupération de faits directement énoncés dans les données.

- Faits implicites : Requêtes nécessitant l'inférence d'informations non énoncées, souvent impliquant un raisonnement basique.

- Raisons interprétables : Requêtes nécessitant la compréhension et l'application de règles explicites spécifiques au domaine provenant de ressources externes.

- Raisons cachées : Requêtes nécessitant la révélation de méthodes de raisonnement implicites non énoncées dans les données.

Chaque niveau de requête présente des défis uniques et nécessite des solutions sur mesure.

Catégories d'Applications LLM Augmentées par les Données

Requêtes de Faits Explicites

Ces requêtes se concentrent sur la récupération directe d'informations factuelles explicitement énoncées. Leur caractéristique principale est la dépendance directe à des éléments de données externes spécifiques. La RAG de base est couramment utilisée ici, où le LLM récupère des informations pertinentes d'une base de connaissances pour générer une réponse. Cependant, des défis surgissent à chaque étape du processus RAG. Par exemple, lors de l'indexation, le système RAG doit gérer de grands ensembles de données non structurées qui peuvent inclure des éléments multimodaux comme des images et des tableaux. Des modèles de parsing de documents multimodaux peuvent aider à cartographier le contexte sémantique des éléments textuels et non textuels dans un espace partagé.

À l'étape de récupération d'information, la pertinence des données récupérées est cruciale. Les développeurs peuvent aligner les requêtes avec les bases de documents, utilisant des réponses synthétiques pour améliorer la précision de récupération. De plus, à l'étape de génération de réponse, le réglage fin permet au LLM de discerner les informations pertinentes et d'ignorer le bruit provenant de la base de connaissances.

Requêtes de Faits Implicites

Ces requêtes demandent aux LLMs de raisonner au-delà d'une simple récupération. Par exemple, un utilisateur peut demander : « Combien de produits la société X a-t-elle vendus au dernier trimestre ? » ou « Quelles sont les principales différences entre les stratégies de la société X et celles de la société Y ? » Ces questions nécessitent des réponses multi-sauts, impliquant des données provenant de plusieurs sources.

La complexité des requêtes de faits implicites impose des techniques RAG avancées, telles que l'intercalage de la récupération avec un raisonnement en chaîne (IRCoT) et la pensée augmentée par récupération (RAT). Les graphes de connaissances combinés avec les LLMs offrent également une méthode structurée pour un raisonnement complexe, reliant efficacement des concepts disparates.

Requêtes de Raisons Interprétables

Ces requêtes exigent que les LLMs appliquent des règles spécifiques au domaine en plus du contenu factuel. « Les requêtes de raisons interprétables représentent une catégorie claire s'appuyant sur des données externes pour les justifications », expliquent les chercheurs. Ce type implique souvent des directives ou des processus de pensée clairs relatifs à des problèmes spécifiques.

Un chatbot de service client, par exemple, peut avoir besoin d'intégrer des protocoles documentés pour gérer les retours avec le contexte client. Intégrer ces raisonnements dans des LLMs peut être difficile, nécessitant des techniques de réglage des invites, y compris l'apprentissage par renforcement et des évaluations d'invites optimisées.

Requêtes de Raisons Cachées

Celles-ci présentent le plus grand défi, car elles impliquent des méthodes de raisonnement intégrées dans les données mais pas explicitement énoncées. Par exemple, le modèle peut devoir analyser des données historiques pour extraire des modèles applicables à un problème actuel.

« Naviguer dans les requêtes de raisons cachées… exige des techniques analytiques sophistiquées pour décoder et exploiter la sagesse latente intégrée dans des sources de données disparates », observent les chercheurs.

Des solutions efficaces pour ces requêtes peuvent impliquer un apprentissage en contexte pour former les LLMs à sélectionner et extraire des informations pertinentes. Un réglage fin spécifique au domaine peut également être essentiel, permettant au modèle de s'engager dans un raisonnement complexe et de discerner quelles données externes sont nécessaires.

Implications pour la Construction d'Applications LLM

L'enquête et le cadre de Microsoft Research illustrent l'évolution des LLMs dans l'utilisation de données externes pour des applications pratiques, tout en soulignant les défis importants. Les entreprises peuvent s'appuyer sur ce cadre pour prendre des décisions éclairées concernant l'intégration de connaissances externes dans leurs LLMs. Bien que les techniques RAG comblent de nombreuses lacunes des LLMs de base, les développeurs doivent rester conscients des capacités et des contraintes de leurs méthodes choisies, en évoluant vers des systèmes plus sophistiqués si nécessaire.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles