AutoToS : Accélérer la planification LLM avec rapidité, précision et accessibilité.

Les Grands Modèles de Langage (LLMs) ont montré un potentiel prometteur pour traiter des tâches de planification et de raisonnement en explorant diverses solutions. Cependant, les méthodes actuelles peuvent être lentes, intensives en calcul, et parfois produire des résultats peu fiables.

Pour surmonter ces défis, des chercheurs de l’Université Cornell et d’IBM Research ont développé AutoToS, une technique qui combine les capacités de planification des LLMs avec l’efficacité et la précision des algorithmes de recherche basés sur des règles. AutoToS minimise l'intervention humaine et réduit considérablement les coûts computationnels associés à la résolution de problèmes de planification, en faisant une solution viable pour les applications LLM nécessitant une prise de décision raisonnée sur des espaces de solutions étendus.

Techniques Innovantes pour la Planification

L'intérêt pour l'utilisation des LLMs dans les problèmes de planification a considérablement augmenté, donnant naissance à diverses méthodes. Parmi les plus efficaces, le Tree of Thoughts utilise les LLMs comme algorithme de recherche pour valider les solutions et suggérer des corrections. Cependant, ces techniques rencontrent deux défis majeurs : une forte demande d'appels aux LLMs, ce qui peut être coûteux, et un manque de garanties de « complétude » et de « validité ». La complétude garantit qu'une solution sera finalement trouvée si elle existe, tandis que la validité confirme qu'une solution fournie est correcte.

La méthode Thought of Search (ToS) propose une alternative en utilisant les LLMs pour générer du code pour des composants clés des algorithmes de recherche : la fonction successeur, qui explore différents nœuds, et la fonction objectif, qui détermine si l'état souhaité a été atteint. Cette méthode améliore l'efficacité en réduisant le besoin d'intervention des LLMs tout au long du processus de recherche.

Michael Katz, chercheur principal chez IBM Research, explique : « Historiquement, la communauté de la planification a soit codé manuellement ces composants pour de nouveaux problèmes, soit les a générés à partir de descriptions en langage de planification, qui étaient soit codées à la main, soit apprises à partir de données. Nous avons voulu utiliser des grands modèles de langage pour générer du code pour les composants de recherche à partir de descriptions textuelles des problèmes. »

La technique ToS originale a apporté des avancées prometteuses en matière de validité et de complétude des algorithmes de recherche, mais nécessitait des experts humains pour fournir des retours sur le code généré, créant un goulet d'étranglement qui ralentissait la rapidité de l'algorithme.

Automatisation du Processus avec AutoToS

Pour surmonter cette limitation, AutoToS automatise le processus de retour d'information et de débogage en utilisant des tests unitaires et des déclarations de débogage, ainsi que des techniques de prompt telles que few-shot et chain-of-thought (CoT).

AutoToS fonctionne en plusieurs étapes. D'abord, il fournit au LLM une description du problème et l'invite à générer du code pour les fonctions successeur et objectif. Ensuite, des tests unitaires évaluent la fonction objectif, fournissant des retours pour les révisions nécessaires. Une fois la fonction objectif validée par les tests, l'algorithme effectue une recherche limitée en largeur pour vérifier la validité et la complétude, itérant jusqu'à ce que les fonctions respectent tous les critères. Enfin, les fonctions validées sont intégrées dans un algorithme de recherche classique, exécutant la recherche complète de manière efficace.

Évaluation d’AutoToS

Les chercheurs ont évalué AutoToS dans divers scénarios de planification et de raisonnement, y compris BlocksWorld, Mini Crossword, et le jeu de 24—où quatre entiers doivent être combinés arithmétiquement pour totaliser 24. Ils ont utilisé différents LLMs, y compris GPT-4o, Llama 2 et DeepSeek Coder, pour analyser les variations de performance en fonction de la taille du modèle.

Les résultats ont montré qu’AutoToS permettait à tous les modèles d'identifier et de corriger des erreurs de code grâce aux retours d'information. Les modèles de plus grande taille produisaient généralement des fonctions objectifs précises sans retours et nécessitaient peu d'itérations pour améliorer la fonction successeur. Notamment, GPT-4o-mini a montré de solides résultats de précision malgré sa taille réduite.

Les chercheurs ont constaté : « Avec seulement quelques appels au modèle linguistique, nous prouvons que nous pouvons obtenir les composants de recherche sans retour humain direct, assurant la validité, la complétude et près de 100 % de précision dans tous les modèles et domaines. » AutoToS réduit considérablement les appels aux LLMs par rapport à d'autres approches ; par exemple, la résolution des 1 362 puzzles du jeu de 24 nécessitait environ 100 000 appels à GPT-4 avec les méthodes précédentes, tandis qu’AutoToS n’a nécessité en moyenne que 2,2 appels.

Katz a ajouté : « Avec ces composants, nous pouvons utiliser l'algorithme BFS standard pour résoudre tous les 1 362 jeux en moins de 2 secondes avec une précision complète, ce que les méthodes précédentes ne pouvaient pas réaliser. »

Implications pour les Applications Entreprises

AutoToS a un potentiel significatif pour les contextes d'entreprise nécessitant des solutions de planification. En réduisant les coûts d'utilisation des LLMs et en diminuant la dépendance à l'intervention manuelle, il permet aux experts de se concentrer sur la planification de haut niveau et les spécifications des objectifs.

Katz souligne : « Nous espérons qu’AutoToS améliorera à la fois le développement et le déploiement de solutions basées sur la planification, en utilisant des modèles linguistiques pour créer des composants de recherche vérifiables et en accélérant le développement tout en contournant les problèmes typiques liés au déploiement des LLMs. »

ToS et AutoToS illustrent l'IA neuro-symbolique, une approche hybride qui combine apprentissage profond et systèmes basés sur des règles pour relever des défis complexes. Cette approche est de plus en plus reconnue comme une direction efficace pour remédier aux lacunes des systèmes d'IA actuels.

« Je n'ai aucun doute sur le rôle futur des systèmes hybrides dans l'IA », a déclaré Harsha Kokel, scientifique de recherche chez IBM. « Les modèles linguistiques actuels peuvent être considérés comme des systèmes hybrides puisqu'ils effectuent des recherches pour déterminer les prochains tokens. »

Bien que ToS et AutoToS montrent un potentiel considérable, des explorations supplémentaires restent essentielles.

« Il est passionnant de voir comment la planification avec le langage naturel évolue, et comment les LLMs peuvent améliorer l'intégration des outils de planification dans les processus décisionnels, ouvrant la voie à de futurs agents intelligents », ont conclu Kokel et Katz. « Nous sommes impatients d'explorer comment les connaissances mondiales des LLMs peuvent enrichir la planification et l'action dans des situations du monde réel. »

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles