Google DeepMind: Verbesserung der KI-Leistung durch stärkere menschliche Verbindung

Ein positiver Anreiz kommt nicht nur Menschen zugute, sondern auch KI, die durch Ratschläge, die menschliche Interaktionen nachahmen, profitieren kann. Forscher von Google DeepMind haben einen revolutionären Ansatz entwickelt, der die mathematischen Fähigkeiten von Sprachmodellen erheblich verbessert, indem er Aufforderungen nutzt, die alltägliche menschliche Kommunikation imitieren. Dieser innovative Ansatz, der in ihrem Artikel „Large Language Models as Optimizers“ beschrieben wird, ist als Optimization by PROmpting (OPRO) bekannt.

OPRO nutzt natürliche Sprache, um große Sprachmodelle wie OpenAI's ChatGPT bei der Lösung komplexer Probleme zu unterstützen. Traditionelles maschinelles Lernen setzt auf formale mathematische Prozesse zur Leistungssteigerung. Im Gegensatz dazu initiiert OPRO Verbesserungen durch nachvollziehbare, gesprächsorientierte Sprache. Durch die Interpretation der Problembeschreibung und früherer Antworten generiert das Sprachmodell mögliche Lösungen.

Tinglong Dai, Professor für Operations Management und Business Analytics an der Johns Hopkins University, erklärt: „LLMs sind auf menschlich erzeugte Inhalte trainiert, und die Funktionsweise lässt sich grob so beschreiben, dass sie Ihre Sätze wie ein gutes Paar beenden. Daher ist es kein Wunder, dass menschenähnliche Aufforderungen zu guten Ergebnissen führen.“ Dies verdeutlicht, wie die Formulierung von Aufforderungen die Ergebnisse der KI erheblich beeinflussen kann.

Die DeepMind-Studie zeigte, dass bestimmte Phrasen die Leistung der Modelle bemerkenswert beeinflussten. Beispielsweise führten Aufforderungen wie „Lass uns Schritt für Schritt nachdenken“ zu einer höheren Genauigkeit bei der Lösung mathematischer Probleme. Die Aufforderung „Atme tief durch und arbeite Schritt für Schritt an diesem Problem“ ergab die besten Ergebnisse mit Googles PaLM 2, die eine Genauigkeitsrate von 80,2 % beim Test gegen GSM8K, einem Datensatz von Mathewortproblemen für Schülerinnen und Schüler, erreichte. Im Vergleich dazu erzielte PaLM 2 ohne spezielle Aufforderungen nur 34 %, während die klassische Aufforderung „Lass uns Schritt für Schritt nachdenken“ 71,8 % erreichte.

Michael Kearns, Professor für Computer- und Informationswissenschaften an der University of Pennsylvania, weist darauf hin, dass LLMs ihre Antworten aufgrund der Schulung mit gesprächsorientierten Daten, einschließlich Reddit-Beiträgen und Filmskripten, anpassen können. Er betont die Bedeutung, LLMs dazu zu ermutigen, Mathematik- oder Logikprobleme in überschaubare Schritte zu zerlegen, unterstützt durch Daten, die mathematische Beweise und formale Argumentation umfassen.

Chengrun Yang, Mitautor des DeepMind-Papiers, erklärt, dass die meisten LLMs mit umfangreichen Datensätzen trainiert wurden, wodurch sie über robuste Fähigkeiten in der Verarbeitung natürlicher Sprache verfügen, einschließlich Paraphrasierung und Satzbereicherung. Kontinuierliche Anstrengungen zur Modellausrichtung verbessern auch die Fähigkeit der LLMs, menschenähnliche Aufforderungen effektiv zu verstehen und darauf zu reagieren.

Laut Olga Beregovaya, Vizepräsidentin für KI und maschinelle Übersetzung bei Smartling, nehmen menschenähnliche Aufforderungen oft die Form von Anfragen an, die die KI in eine dialogorientierte Interaktion führen. „LLMs funktionieren am besten, wenn ihnen mehr Kontext gegeben wird“, fügt sie hinzu. Ausführliche Aufforderungen mit zusätzlichen Details ermöglichen es dem Modell, seine Antworten näher an den spezifischen Kontext anzupassen.

Interessanterweise können einfache aufmunternde Worte auch die Leistung der KI steigern. Dai weist darauf hin, dass LLMs möglicherweise bessere Ergebnisse liefern, wenn Nutzer sie motivieren, beispielsweise mit den Worten: „Komm schon, du kannst es besser machen!“ Besonders Beispiele, wie das Bitten von LLMs, als Nobelpreisträger in der Wirtschaft zu agieren, können zu wertvolleren Diskussionen über komplexe Themen wie Inflation führen. Ähnlich kann das Einfordern von LLMs, die Rolle eines führenden medizinischen Experten zu übernehmen, genauere und fokussierte Ergebnisse in medizinischen Diagnosen liefern. Er merkt jedoch an, dass solche menschlichen Ermutigungen zwar wirkungsvoll sein können, aber keine universellen Verbesserungen bei allen Aufgaben garantieren.

Wichtig ist auch, dass LLMs gut auf nicht-menschliche Aufforderungen reagieren können, die auf spezifische Aufgaben zugeschnitten sind. Dai erwähnt, dass strukturierte und kodierte Aufforderungen zu effektiven Ergebnissen führen können, was einen Kontrast zu traditionellen gesprächsorientierten Ansätzen darstellt.

Die OPRO-Methode könnte den Prozess der Erstellung von KI-Aufforderungen vereinfachen und es Nutzern ermöglichen, ihre Anfragen anhand verschiedener Kriterien wie Genauigkeit bei der Problemlösung in der Mathematik, Auslösequoten von Werkzeugen und Kreativität der Textgenerierung zu optimieren. Yang äußert die Hoffnung, dass diese Methode neuartige Anwendungen inspirieren wird, um LLMs für ein breiteres Spektrum an Aufgaben zu nutzen und so den Weg für interaktivere und effizientere KI-Lösungen zu ebnen.

Most people like

Find AI tools in YBX