Wenn Sie den unverständlichen Drang verspüren, diesen Stein anzulächeln, sind Sie nicht allein. Menschen neigen dazu, Objekten menschliche Eigenschaften zuzuschreiben – ein Phänomen, das als Anthropomorphismus bekannt ist und in unseren Interaktionen mit KI immer relevanter wird.
Anthropomorphismus zeigt sich beispielsweise, wenn wir Chatbots ein „Bitte“ oder „Danke“ entgegensetzen oder Bewunderung für generative KI-Ausgaben ausdrücken, die unseren Erwartungen entsprechen. Die eigentliche Herausforderung entsteht jedoch, wenn wir von KI erwarten, ihre Leistung bei einfachen Aufgaben – wie dem Zusammenfassen eines Artikels – auch bei komplexeren Themen, etwa einer Anthologie wissenschaftlicher Arbeiten, zu reproduzieren. Ähnlich verhält es sich, wenn KI eine Antwort zu Microsofts Gewinnen liefert und wir annehmen, sie könne darauf basierende Marktanalysen unter Berücksichtigung der Gewinntranskripte mehrerer Unternehmen durchführen. Diese Erwartungen führen oft zu Enttäuschungen.
Obwohl diese Aufgaben auf den ersten Blick ähnlich erscheinen, sind sie für KI-Modelle grundlegend verschieden. Wie Cassie Kozyrkov erklärt: „KI ist so kreativ wie ein Pinsel.“ Das Hauptproblem für die Produktivität mit KI liegt in der effektiven Nutzung als Werkzeug. Anektotisch berichten einige Kunden, die Microsoft Copilot-Lizenzen eingeführt hatten, später von einer Reduzierung der Plätze, da die Nutzer keinen echten Nutzen sahen. Diese Diskrepanz ist auf unrealistische Erwartungen über die Fähigkeiten der KI im Vergleich zur tatsächlichen Leistung zurückzuführen. Viele von uns kennen den Moment der Erkenntnis: „Oh, dafür ist KI nicht geeignet.“
Anstatt generative KI aufzugeben, sollten wir die Intuition entwickeln, um KI und maschinelles Lernen besser zu verstehen und die Fallstricke des Anthropomorphismus zu vermeiden.
Intelligenz und Schlussfolgerungen im maschinellen Lernen definieren
Unsere Definition von Intelligenz war schon immer vage. Wenn ein Hund nach Leckereien bettelt, ist das dann intelligentes Verhalten? Benutzt ein Affe ein Werkzeug, zeigt das dann Intelligenz? Gilt das auch für Computer, wenn sie diese Aufgaben erledigen? Bis vor kurzem war ich der Meinung, große Sprachmodelle (LLMs) könnten nicht wirklich „schlüssig denken“. Eine kürzliche Diskussion mit vertrauenswürdigen KI-Gründern führte uns zu dem Vorschlag, ein Bewertungsraster für die Beurteilung von Schlussfolgerungsfähigkeiten in KI zu entwickeln.
So wie wir Bewertungsraster für Leseverständnis und quantitative Denkfähigkeiten haben, könnte die Einführung eines spezifischen Rasters für KI helfen, die erwarteten Schlussfolgerungsfähigkeiten von LLM-gesteuerten Lösungen zu vermitteln, samt Beispielen für unrealistische Erwartungen.
Unrealistische Erwartungen an KI
Menschen sind oft nachsichtiger bei Fehlern, die von anderen gemacht werden. Obwohl selbstfahrende Autos statistisch sicherer sind als menschliche Fahrer, führen Unfälle zu erheblichem Aufschrei. Diese Reaktion verstärkt die Enttäuschung, wenn KI bei Aufgaben versagt, von denen wir erwarten, dass Menschen sie gut bewältigen. Viele beschreiben KI als eine riesige Armee von „Praktikanten“, doch Maschinen können auf Weisen fehlerhaft sein, auf die Menschen nicht versagen, selbst wenn sie in vielen Bereichen überlegen sind.
Weniger als 10 % der Unternehmen entwickeln und implementieren erfolgreich generative KI-Projekte. Eine fehlende Übereinstimmung mit den Unternehmenswerten und unvorhergesehene Kosten im Zusammenhang mit der Datenkuratierung stellen weitere Herausforderungen für diese Initiativen dar. Um diese Hürden zu überwinden und Projekte erfolgreich umzusetzen, ist es entscheidend, die KI-Nutzer mit der Intuition auszustatten, die nötig ist, um zu wissen, wann und wie KI effektiv genutzt werden kann.
Training zur Entwicklung von Intuition mit KI
Training ist entscheidend, um sich an die sich schnell entwickelnde KI-Landschaft anzupassen und unser Verständnis von intelligenter maschineller Lernfähigkeit neu zu definieren. Während der Begriff „KI-Training“ vage erscheinen kann, lässt er sich in drei Hauptbereiche gliedern:
1. Sicherheit: Verantwortungsbewusste Nutzung von KI und Vermeidung neuer, KI-unterstützter Phishing-Versuche.
2. Alphabetisierung: Verständnis dafür, was KI leisten kann, was von ihr zu erwarten ist und welche potenziellen Falle es gibt.
3. Einsatzbereitschaft: Meisterung des geschickten und effizienten Einsatzes von KI-basierten Werkzeugen zur Verbesserung der Arbeitsqualität.
Das Training zur Sicherheit mit KI schützt Ihr Team ähnlich wie Knieschoner für einen neuen Radfahrer; es kann einige Stürze verhindern, bereitet sie jedoch nicht auf schwierigere Herausforderungen vor. Im Gegensatz dazu ermöglicht das Training zur Einsatzbereitschaft Ihrem Team, das Potenzial von KI und maschinellem Lernen voll auszuschöpfen. Je mehr Gelegenheiten Sie Ihrem Team bieten, sicher mit generativen KI-Tools zu interagieren, desto besser werden sie darin, zu erkennen, was funktioniert und was nicht.
Obwohl wir nur spekulieren können, welche Fähigkeiten im kommenden Jahr entstehen werden, wird die Verbindung zu einem definierten Raster von Schlussfolgerungsniveaus Ihre Arbeitskräfte besser auf den Erfolg vorbereiten. Wissen Sie, wann Sie sagen sollten „Ich weiß es nicht“, wann Sie Hilfe suchen sollten und, am wichtigsten, wann ein Problem über den Rahmen eines bestimmten KI-Tools hinausgeht.