Google DeepMind: Mejorando el Rendimiento de la IA a través de una Mayor Conexión Humana

Así como las personas prosperan gracias al refuerzo positivo, la IA también puede beneficiarse de indicaciones que imitan la interacción humana. Investigadores de Google DeepMind han presentado un enfoque transformador que mejora significativamente las capacidades matemáticas de los modelos de lenguaje a través de mensajes que emulan la comunicación humana cotidiana. Este método innovador, detallado en su artículo "Large Language Models as Optimizers," se conoce como Optimización por PROmpting (OPRO).

OPRO utiliza el lenguaje natural para guiar a modelos de lenguaje grandes, como ChatGPT de OpenAI, a resolver problemas complejos. Mientras que el aprendizaje automático tradicional se basa en procesos matemáticos formales para mejorar el rendimiento, OPRO inicia la mejora mediante un lenguaje conversacional y accesible. Al interpretar la descripción de un problema junto con respuestas anteriores, el modelo de lenguaje genera posibles soluciones.

Tinglong Dai, profesor de Gestión de Operaciones y Análisis de Negocios en la Universidad Johns Hopkins, explica: “Los LLMs son entrenados con contenido generado por humanos, y su funcionamiento, a grandes rasgos, es completar tus oraciones como lo haría una buena pareja. Por lo tanto, no es sorprendente que los mensajes similares a humanos conduzcan a buenos resultados.” Esto resalta cómo la formulación de los mensajes puede influir significativamente en los resultados de la IA.

El estudio de DeepMind reveló que ciertas frases impactaron notablemente el rendimiento de los modelos. Por ejemplo, mensajes como "pensemos paso a paso" mejoraron la precisión en la resolución de problemas matemáticos durante las pruebas con conjuntos de datos. La frase "Respira hondo y trabaja en este problema paso a paso" obtuvo los mejores resultados con PaLM 2 de Google, alcanzando un porcentaje de precisión del 80.2% al evaluarse con GSM8K, un conjunto de datos de problemas matemáticos de nivel escolar. En comparación, PaLM 2, sin un mensaje específico, solo logró un 34%, mientras que el mensaje clásico "Pensemos paso a paso" alcanzó el 71.8%.

Michael Kearns, profesor de Ciencias de la Computación e Información en la Universidad de Pensilvania, señala que los LLMs sobresalen al modificar sus respuestas según mensajes similares a humanos gracias a su entrenamiento con datos conversacionales, incluyendo publicaciones de Reddit y guiones de películas. Destaca la importancia de fomentar en los LLMs la descomposición de problemas matemáticos o lógicos en pasos manejables, respaldado por entrenamiento en datos que incluyen pruebas matemáticas y razonamiento formal.

Chengrun Yang, coautor del artículo de DeepMind, explica que la mayoría de los LLMs han sido entrenados con vastos conjuntos de datos, lo que les otorga capacidades robustas en procesamiento del lenguaje natural, incluyendo la paráfrasis y el enriquecimiento de oraciones. Los esfuerzos continuos en la alineación del modelo también mejoran la capacidad de los LLMs para comprender y responder de manera efectiva a mensajes que imitan la interacción humana.

Según Olga Beregovaya, vicepresidenta de IA y Traducción Automática en Smartling, los mensajes similares a humanos a menudo toman la forma de solicitudes que guían a la IA hacia una interacción más orientada al diálogo. “Los LLMs funcionan mejor cuando se les proporciona más contexto,” agrega. Mensajes extensos con detalles adicionales permiten que el modelo alinee sus respuestas más estrechamente con el contexto específico presentado.

Curiosamente, simples palabras de aliento también pueden mejorar el rendimiento de la IA. Dai señala que los LLMs pueden obtener mejores resultados cuando los usuarios los motivan, como al decir: “¡Vamos, puedes hacerlo mejor que eso!” Ejemplos como pedir a los LLMs que actúen como un economista galardonado con el Premio Nobel pueden generar discusiones más profundas sobre temas complejos como la inflación. De igual manera, en escenarios de diagnóstico médico, instar a los LLMs a adoptar la personalidad de un experto médico destacado puede producir resultados más precisos y enfocados. Sin embargo, señala que aunque estos estímulos al estilo humano pueden ser efectivos, no garantizan mejoras universales en todas las tareas.

Es importante destacar que también existe el potencial para que los LLMs respondan bien a mensajes no humanos adaptados a tareas específicas. Dai menciona que mensajes estructurados y codificados pueden ofrecer resultados efectivos, contrastando con los enfoques conversacionales tradicionales.

El método OPRO podría simplificar el proceso de creación de mensajes para la IA, permitiendo a los usuarios optimizar sus consultas según diferentes métricas, como la precisión en la resolución de problemas matemáticos, las tasas de activación de herramientas y la creatividad en la generación de texto. Yang expresa la esperanza de que este método inspire aplicaciones novedosas para utilizar LLMs en la mejora de una gama más amplia de tareas, allanando el camino para soluciones de IA más interactivas y eficientes.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles