Mejorando la Toma de Decisiones en Modelos de Lenguaje Grande: Dos Estrategias Modernas

Los modelos de lenguaje grandes (LLMs) emergentes, como ChatGPT de OpenAI (especialmente GPT-4), Claude AI y Gemini, han demostrado limitadas capacidades para la toma de decisiones. Este artículo explora investigaciones recientes sobre la toma de decisiones en LLM y sus implicaciones para el futuro.

Tradicionalmente, una toma de decisiones efectiva en LLM implica reconocer patrones o reglas subyacentes y aplicarlas de forma flexible a nuevos escenarios. Un estudio del Instituto Santa Fe encontró que los LLM, incluido ChatGPT, tienen dificultades para "razonar sobre conceptos básicos". Tomar decisiones acertadas requiere una comprensión profunda del contexto del enunciado y las posibles consecuencias de la respuesta.

Una mala toma de decisiones por parte de los LLM puede llevar a resultados perjudiciales. Por ejemplo, en 2023, la Asociación Nacional de Trastornos Alimentarios suspendió su chatbot de IA "Tessa" después de que comenzara a proporcionar consejos dañinos, como sugerir pesajes semanales y un déficit calórico de 500 a 1,000 calorías. La reacción negativa llevó a una rápida desactivación del chatbot.

Los LLM también tienden a generar recomendaciones genéricas. Una investigación de INSEAD reveló que, al plantear preguntas sobre estrategia empresarial, ChatGPT a menudo recurría a la sabiduría convencional, como promover el trabajo colaborativo y una cultura de innovación. Sin embargo, la estrategia empresarial es un proceso complejo que requiere insights personalizados y no consejos genéricos.

Un posible contraargumento es que entrenar a los LLM específicamente para estrategias empresariales o asesoramiento en salud podría resolver estos problemas. Sin embargo, mejorar su comprensión contextual no puede abordarse únicamente ampliando sus bases de datos. Agregar más datos puede introducir sesgos y aumentar la demanda computacional sin mejorar la calidad de la toma de decisiones.

Facilitando la Toma de Decisiones Apropiadas al Contexto

El entrenamiento de los LLM para la toma de decisiones apropiadas al contexto requiere un enfoque matizado. Dos estrategias avanzadas de la investigación actual en aprendizaje automático proponen formas de mejorar la toma de decisiones en LLM para que se asemeje a los procesos cognitivos humanos. La primera, AutoGPT, emplea un mecanismo de autorreflexión para planificar y validar resultados. La segunda, Tree of Thoughts (ToT), promueve una toma de decisiones efectiva al alejarse del razonamiento lineal tradicional.

AutoGPT está diseñado para crear, evaluar y refinar modelos de manera autónoma para lograr objetivos específicos. Las mejoras en AutoGPT ahora incorporan una estrategia de "opiniones adicionales", integrando modelos de expertos en el proceso de toma de decisiones. Esta integración permite a los LLM utilizar información relevante de varios análisis expertos, mejorando así los resultados a través de un enfoque sistemático de "pensar-razonar-planificar-criticar".

Si se implementa efectivamente, los LLM potenciados con modelos de expertos podrían procesar más información que los humanos, sugiriendo que podrían tomar decisiones más informadas. Sin embargo, una limitación de AutoGPT es su ventana de contexto restringida, lo que puede llevar a bucles de interacción infinitos. Proporcionar toda la información relevante de antemano a menudo produce mejores resultados en comparación con inyectar datos gradualmente a lo largo de una conversación.

Simulando la Cognición Humana con Tree of Thoughts

El marco Tree of Thoughts (ToT) ofrece otro método prometedor para mejorar la precisión de los LLM al imitar los procesos cognitivos humanos. La toma de decisiones humana a menudo implica generar y evaluar múltiples escenarios. ToT identifica fallos en el razonamiento lineal en los LLM, de manera similar al enfoque de AutoGPT. En experimentos, ToT mide la capacidad de los LLM para seguir instrucciones de lenguaje natural en la realización de tareas como rompecabezas y escritura creativa.

El razonamiento lineal tradicional en los LLM se representa por la "Cadena de Pensamientos", que delinear un proceso secuencial de toma de decisiones. Sin embargo, ToT busca mejorar las habilidades autocríticas de los LLM y explorar diferentes caminos de razonamiento. Por ejemplo, en el Juego de 24, la Cadena de Pensamientos tuvo dificultades para identificar diferentes operaciones matemáticas para llegar a 24, resultando en una baja tasa de precisión. La capacidad de ToT para evaluar múltiples resultados condujo a una tasa de precisión del 74% en la misma tarea.

Si los LLM pueden mejorar consistentemente su juicio, futuras colaboraciones entre humanos y IA en la toma de decisiones estratégicas podrían convertirse en una realidad. Las aplicaciones de ToT se extienden a la codificación, el análisis de datos y la robótica, mientras que AutoGPT aspira hacia la inteligencia general.

A medida que la investigación académica evoluciona, están surgiendo estrategias innovadoras para mejorar la toma de decisiones cognitivas en los LLM. Dada su capacidad inherente para analizar grandes volúmenes de datos de manera eficiente, los avances exitosos podrían permitir que los LLM igualen o incluso superen las capacidades de toma de decisiones humanas en los próximos años.

Most people like

Find AI tools in YBX