Cualquiera que haya trabajado en un rol de atención al cliente o colaborado en un equipo entiende que cada persona tiene preferencias únicas y, a veces, desconcertantes. Mientras que comprender las preferencias individuales puede ser un desafío para los humanos, es aún más complejo para modelos de IA, que carecen de experiencias y contextos personales para basarse. Entonces, ¿cómo puede la IA entender efectivamente lo que realmente desean los usuarios?
Presentamos GATE: Un Nuevo Enfoque para la Comprensión de la IA
Un equipo de investigadores de universidades de prestigio y la startup Anthropic, creadores del chatbot Claude 2, están abordando este reto. Proponen una solución sencilla: entrenar modelos de IA para que hagan más preguntas a los usuarios y así descubrir sus verdaderas preferencias.
En un estudio reciente, el investigador de Anthropic, Alex Tamkin, junto a colegas del MIT y de Stanford, presentó la "elicitación activa generativa de tareas" (GATE). Su objetivo es claro: aprovechar modelos de lenguaje de gran tamaño (LLMs) para transformar las preferencias humanas en sistemas de toma de decisiones automatizados.
En esencia, GATE permite a los LLMs interactuar con los usuarios en conversaciones durante su primera interacción. El modelo no solo genera y analiza texto, sino que también incorpora las respuestas del usuario en tiempo real, permitiéndole inferir deseos basados en sus aportaciones y conceptos relacionados en su base de datos. Como afirman los investigadores: “La efectividad de los modelos de lenguaje para entender y producir texto sugiere que pueden elicitar y comprender preferencias de los usuarios de manera efectiva.”
Tres Métodos de GATE
El enfoque GATE puede implementarse de varias maneras:
1. Aprendizaje Activo Generativo: En este método, el LLM genera respuestas de ejemplo y solicita retroalimentación a los usuarios. Por ejemplo, podría preguntar: “¿Te interesa el artículo: El Arte de la Cocina Fusión: Mezclando Culturas y Sabores?” Según la retroalimentación, el LLM ajustará los tipos de contenido que proporciona.
2. Generación de Preguntas de Sí/No: Este enfoque directo implica preguntas binarias como: “¿Disfrutas leer artículos sobre salud y bienestar?” El LLM adaptará sus respuestas según las respuestas 'sí' o 'no' del usuario, omitiendo temas que recibieron una respuesta negativa.
3. Preguntas Abiertas: Este método más amplio busca obtener información más matizada. El LLM podría preguntar: “¿Qué hobbies disfrutas en tu tiempo libre y qué te atrae de ellos?”
Resultados Positivos de los Ensayos de GATE
Los investigadores probaron el método GATE en tres áreas: recomendaciones de contenido, razonamiento moral y validación de correos electrónicos. Al ajustar GPT-4 de OpenAI y con la participación de 388 voluntarios, encontraron que GATE a menudo producía modelos con mayor precisión en comparación con las líneas de base tradicionales, requiriendo un esfuerzo cognitivo similar o menor por parte de los usuarios.
Específicamente, el modelo GPT-4 ajustado con GATE mostró un notable aumento en la precisión al predecir preferencias de los usuarios, evidenciando una mejora significativa en su capacidad para personalizar respuestas.
El estudio destaca que los modelos de lenguaje pueden implementar GATE con éxito para elicitar preferencias humanas de manera más precisa y eficiente que los métodos existentes. Este avance podría simplificar significativamente el desarrollo de chatbots impulsados por LLM para interacciones con clientes o empleados. En lugar de depender únicamente de conjuntos de datos preexistentes para inferir preferencias, ajustar modelos para participar en el proceso de preguntas y respuestas podría mejorar las experiencias de los usuarios, asegurando interacciones más relevantes y útiles.
Así que, si tu chatbot de IA preferido comienza a preguntarte sobre tus preferencias pronto, es probable que esté utilizando el método GATE para ofrecer respuestas más personalizadas y satisfactorias.