AutoToS: Acelerando la Planificación de LLM con Velocidad, Precisión y Accesibilidad

Los Modelos de Lenguaje Grandes (LLMs) han demostrado un gran potencial para abordar tareas de planificación y razonamiento al explorar diversas soluciones. Sin embargo, los métodos actuales pueden ser lentos, intensivos en recursos computacionales y, en ocasiones, producir resultados poco fiables.

Para abordar estos desafíos, investigadores de la Universidad de Cornell y de IBM Research desarrollaron AutoToS, una técnica que combina las capacidades de planificación de los LLMs con la eficiencia y precisión de los algoritmos de búsqueda basados en reglas. AutoToS minimiza la intervención humana y reduce significativamente los costos computacionales asociados a la resolución de problemas de planificación, convirtiéndolo en una solución viable para aplicaciones de LLM que requieren toma de decisiones razonadas en espacios de soluciones amplios.

Técnicas Innovadoras para la Planificación

El interés por utilizar LLMs para problemas de planificación ha aumentado, lo que ha llevado a la creación de diversos métodos. Entre los más efectivos se encuentra el Árbol de Pensamientos, que utiliza LLMs como algoritmo de búsqueda para validar soluciones y sugerir correcciones. Sin embargo, estas técnicas enfrentan dos desafíos críticos: una alta demanda de llamadas a los LLMs, que puede resultar costosa, y la falta de garantías sobre la "completitud" y "validez". La completitud asegura que eventualmente se encontrará una solución si existe, mientras que la validez garantiza que cualquier solución proporcionada es correcta.

El Pensamiento de Búsqueda (ToS) propone una alternativa al aprovechar los LLMs para generar código para componentes clave de los algoritmos de búsqueda: la función sucesora, que explora distintos nodos, y la función objetivo, que determina si se ha alcanzado el estado deseado. Este método mejora la eficiencia al reducir la necesidad de intervención de los LLMs a lo largo del proceso de búsqueda.

Michael Katz, investigador principal en IBM Research, explica: “Históricamente, la comunidad de planificación codificaba manualmente estos componentes para nuevos problemas o los generaba a partir de descripciones en lenguajes de planificación, que eran codificadas a mano o aprendidas a partir de datos. Nuestro objetivo era utilizar grandes modelos de lenguaje para generar código para componentes de búsqueda a partir de descripciones textuales del problema.”

La técnica original de ToS mostró avances prometedores en la validez y completitud de los algoritmos de búsqueda, pero requería que expertos humanos proporcionaran retroalimentación sobre el código generado, creando un cuello de botella que limitaba la velocidad del algoritmo.

Automatizando el Proceso con AutoToS

Para abordar esta limitación, AutoToS automatiza el proceso de retroalimentación y depuración utilizando pruebas unitarias y declaraciones de depuración, junto con técnicas de indicación de pocos ejemplos y cadena de pensamientos (CoT).

AutoToS opera en varios pasos. Primero, proporciona al LLM una descripción del problema y le solicita que genere código para las funciones sucesora y objetivo. A continuación, pruebas unitarias evalúan la función objetivo, proporcionando retroalimentación para las revisiones necesarias. Una vez que la función objetivo supera las pruebas, el algoritmo realiza una búsqueda limitada en amplitud para verificar la validez y completitud, iterando hasta que las funciones cumplan con todos los criterios. Finalmente, las funciones validadas se incorporan en un algoritmo de búsqueda clásico, llevando a cabo la búsqueda completa de manera eficiente.

Evaluación de AutoToS

Los investigadores evaluaron AutoToS en diversas tareas de planificación y razonamiento, incluyendo BlocksWorld, Mini Crossword y el Juego de 24, donde se deben combinar aritméticamente cuatro enteros para totalizar 24. Utilizaron diferentes LLMs, incluidos GPT-4o, Llama 2 y DeepSeek Coder, para analizar las variaciones de rendimiento según el tamaño del modelo.

Sus hallazgos indicaron que AutoToS permitió a todos los modelos identificar y corregir errores de código mediante retroalimentación. Los modelos más grandes, en general, produjeron funciones objetivo precisas sin necesidad de retroalimentación y requirieron pocas iteraciones para mejorar la función sucesora. Notablemente, GPT-4o-mini mostró resultados de alta precisión a pesar de su menor tamaño.

Los investigadores señalaron: “Con solo unas pocas llamadas al modelo de lenguaje, demostramos que podemos obtener los componentes de búsqueda sin retroalimentación humana directa, asegurando validez, completitud y casi 100% de precisión en todos los modelos y dominios.” AutoToS reduce drásticamente las llamadas a LLMs en comparación con otros enfoques; por ejemplo, para resolver los 1,362 rompecabezas en el conjunto de datos del Juego de 24, se requerían aproximadamente 100,000 llamadas a GPT-4 con métodos anteriores, mientras que AutoToS necesitó solo un promedio de 2.2 llamadas.

Katz comentó: “Con estos componentes, podemos emplear el algoritmo BFS estándar para resolver los 1,362 juegos en menos de 2 segundos con total precisión, algo que los métodos anteriores no lograron.”

Implicaciones para Aplicaciones Empresariales

AutoToS tiene un gran potencial en contextos empresariales que requieren soluciones de planificación. Al reducir los costos de uso de LLM y la dependencia de la entrada manual, permite que los expertos se enfoquen en la planificación de alto nivel y en la especificación de metas.

Katz enfatiza: “Esperamos que AutoToS mejore tanto el desarrollo como la implementación de soluciones basadas en planificación, utilizando modelos de lenguaje para crear componentes de búsqueda verificables y acelerando el desarrollo mientras evitamos problemas típicos de la implementación de LLM.”

ToS y AutoToS son ejemplos de IA neuro-simbólica, un enfoque híbrido que combina el aprendizaje profundo y los sistemas basados en reglas para enfrentar desafíos complejos. Este enfoque es cada vez más reconocido como una dirección efectiva para abordar las debilidades de los sistemas actuales de IA.

“No tengo dudas sobre el papel futuro de los sistemas híbridos en la IA,” afirmó Harsha Kokel, científico investigador en IBM. “Los modelos de lenguaje actuales pueden verse como sistemas híbridos, ya que realizan búsquedas para determinar los siguientes tokens.”

Si bien ToS y AutoToS muestran un considerable potencial, aún es esencial una exploración más profunda.

“Es emocionante ver cómo la planificación con lenguaje natural evoluciona y cómo los LLMs pueden mejorar la integración de herramientas de planificación en los procesos de toma de decisiones, abriendo camino a futuros agentes inteligentes,” concluyeron Kokel y Katz. “Estamos ansiosos por explorar cómo el conocimiento del mundo de los LLMs puede enriquecer la planificación y la acción en situaciones del mundo real.”

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles