Jeder, der in einer kundenorientierten Rolle gearbeitet oder im Team zusammengearbeitet hat, weiß, dass jede Person einzigartige und manchmal verwirrende Vorlieben hat. Während es für Menschen eine Herausforderung sein kann, individuelle Präferenzen zu verstehen, ist es für KI-Modelle, die keine persönlichen Erfahrungen oder Kontexte haben, noch komplexer. Wie kann KI also effektiv erkennen, was Benutzer wirklich wollen?
GATE: Ein Neuer Ansatz für das Verständnis von KI
Ein Forscherteam führender Universitäten sowie das Startup Anthropic, die Macher des Chatbots Claude 2, widmet sich dieser Herausforderung. Sie schlagen eine einfache Lösung vor: KI-Modelle so zu trainieren, dass sie mehr Fragen an die Benutzer stellen, um deren wahre Vorlieben zu entdecken.
In einer aktuellen Studie führten der Anthropic-Forscher Alex Tamkin und Kollegen von MIT und Stanford das Konzept der „generativen aktiven Aufgabenaufforderung“ (GATE) ein. Ihr Ziel ist klar: die Nutzung großer Sprachmodelle (LLMs), um menschliche Vorlieben in automatisierte Entscheidungssysteme zu transformieren.
GATE ermöglicht es LLMs, Benutzer in der ersten Interaktion in Gespräche einzubeziehen. Das Modell generiert und analysiert nicht nur Text, sondern berücksichtigt auch Benutzerantworten in Echtzeit, wodurch es die Wünsche der Benutzer basierend auf deren Eingaben und verwandten Konzepten in seiner Datenbank ableiten kann. Die Forscher erklären: „Die Effektivität von Sprachmodellen beim Verstehen und Produzieren von Texten deutet darauf hin, dass sie die Benutzerpräferenzen effektiv ermitteln und verstehen können.“
Drei Methoden von GATE
Der GATE-Ansatz kann auf verschiedene Weise umgesetzt werden:
1. Generatives Aktives Lernen: Bei dieser Methode generiert das LLM Beispielantworten und fragt die Benutzer um Feedback. Zum Beispiel könnte es fragen: „Sind Sie an dem Artikel interessiert: Die Kunst der Fusionsküche: Kulturen und Aromen mischen?“ Basierend auf dem Benutzerfeedback passt das LLM die bereitgestellten Inhalte an.
2. Ja/Nein-Fragegeneration: Diese einfache Methode verwendet binäre Fragen wie: „Lesen Sie gerne Artikel über Gesundheit und Wellness?“ Das LLM wird seine Antworten gemäß den „Ja“- oder „Nein“-Antworten des Benutzers anpassen und Themen, die negativ beantwortet wurden, auslassen.
3. Offene Fragen: Diese breitere Methode zielt darauf ab, nuanciertere Informationen zu erhalten. Das LLM könnte fragen: „Welche Hobbys haben Sie in Ihrer Freizeit und was fasziniert Sie daran?“
Positive Ergebnisse aus GATE-Tests
Die Forscher testeten die GATE-Methode in drei Bereichen: Inhaltsempfehlungen, moralisches Urteil und E-Mail-Validierung. Durch das Feintuning von OpenAI's GPT-4 und die Einbeziehung von 388 Teilnehmern fanden sie heraus, dass GATE oft Modelle mit höherer Genauigkeit produzierte als herkömmliche Baseline-Modelle und gleichzeitig einen ähnlichen oder geringeren kognitiven Aufwand von den Benutzern erforderte.
Insbesondere zeigte das mit GATE feinjustierte GPT-4-Modell einen deutlichen Anstieg in der genauen Vorhersage der Benutzerpräferenzen und eine signifikante Verbesserung seiner Fähigkeit, Antworten anzupassen.
Die Studie hebt hervor, dass LMs GATE erfolgreich implementieren können, um menschliche Präferenzen genauer und effizienter als bestehende Methoden zu ermitteln.
Dieser Fortschritt könnte die Entwicklung von LLM-gesteuerten Chatbots für Kunden- oder Mitarbeiterinteraktionen erheblich vereinfachen. Anstatt sich ausschließlich auf vorhandene Datensätze zur Ableitung von Vorlieben zu verlassen, könnte das Feintuning von Modellen zur Einbindung in den Q&A-Prozess die Benutzererfahrung verbessern, indem es relevantere und hilfreichere Interaktionen sicherstellt.
Wenn Ihr bevorzugter KI-Chatbot bald beginnt, Sie nach Ihren Vorlieben zu fragen, nutzt er wahrscheinlich die GATE-Methode, um Ihnen maßgeschneiderte und zufriedenstellende Antworten zu liefern.