Warum KI oft überheblich ist: Die Grenzen und Wissenslücken der Künstlichen Intelligenz erforschen

Vertrauen in KI: Die Bedeutung der Rechtfertigung von KI-Ausgaben

Jeden Monat verlassen sich über 500 Millionen Menschen auf Gemini und ChatGPT für Informationen, die von der Zubereitung von Pasta bis hin zur Bewältigung komplexer Hausaufgaben reichen. Doch wenn KI empfiehlt, Pasta in Benzin zu kochen, wirft das Fragen zur Zuverlässigkeit in anderen Bereichen wie Verhütung oder Algebra auf.

Beim Weltwirtschaftsforum im Januar betonte OpenAI-CEO Sam Altman die Notwendigkeit von Transparenz in den Ausgaben von KI: „Ich kann nicht in dein Gehirn schauen, um deine Gedanken zu verstehen, aber ich kann dich bitten, deine Argumentation zu erläutern und zu beurteilen, ob sie vernünftig klingt. Ich glaube, unsere KI-Systeme werden dazu in der Lage sein.“

Wissen erfordert Rechtfertigung

Altman möchte Vertrauen in große Sprachmodelle (LLMs) wie ChatGPT schaffen, indem er vorschlägt, dass sie klare Erklärungen für ihre Ausgaben liefern können. Ohne gültige Rechtfertigung können Überzeugungen nicht als Wissen betrachtet werden. Wann empfinden wir das Gefühl von Rechtfertigung in unserem Wissen? Typischerweise geschieht dies, wenn unsere Überzeugungen durch glaubwürdige Beweise, logische Argumente oder die Aussagen vertrauenswürdiger Quellen gestützt werden.

LLMs sollen zuverlässige Informationsquellen sein. Fehlt jedoch die Fähigkeit, ihr Denken zu erklären, haben wir keine Gewissheit, dass ihre Aussagen unseren Rechtfertigungskriterien entsprechen. Wenn du beispielsweise behauptest, der Dunst in Tennessee sei auf Waldbrände in Kanada zurückzuführen, könnte ich deine Aussage akzeptieren. Aber wenn du zuvor behauptet hast, Schlangenkämpfe seien in Promotionsverteidigungen üblich, gefährdet das deine Glaubwürdigkeit. Ich würde dann um Klarstellung deiner Argumentation bezüglich des Dunstes bitten.

Die Grenzen des KI-Verstehens

Heutige KI-Systeme können unser Vertrauen nicht durch Argumentation gewinnen, da es ihnen an dieser Fähigkeit mangelt. Stattdessen werden LLMs auf umfangreichen Datensätzen trainiert, um Sprachmuster zu erkennen und vorherzusagen. Bei einer Eingabe generiert das Tool eine Antwort basierend auf diesen Mustern, die oft das Wissen eines menschlichen Sprechers imitiert. Dieser Prozess validiert jedoch nicht die Genauigkeit oder Rechtfertigung des Inhalts. Wie Hicks, Humphries und Slater in „ChatGPT ist Bullshit“ betonen, erzeugen LLMs Texte, die überzeugend erscheinen, sich jedoch nicht um die Wahrheit kümmern.

Wenn KI-generierte Inhalte nicht dem Wissen von Menschen entsprechen, was sind sie dann? Obwohl es ungenau erscheinen mag, alle Ausgaben als „Bullshit“ zu kategorisieren, sind viele LLM-Antworten faktisch korrekt, was zu dem führt, was Philosophen als Gettier-Fälle bezeichnen. Diese Situationen treten auf, wenn wahre Überzeugungen neben einem Mangel an Verständnis ihrer Rechtfertigung existieren.

KI-Ausgaben als Illusionen

Um dies zu veranschaulichen, stelle dir folgendes Szenario vor, inspiriert vom indischen buddhistischen Philosophen Dharmottara aus dem 8. Jahrhundert: Stell dir vor, du suchst an einem heißen Tag nach Wasser. Du siehst etwas, das wie Wasser aussieht, und entdeckst dann, dass es eine Illusion ist. Wenn du jedoch an diesem Ort ankommst, findest du echtes Wasser unter einem Stein. Kannst du echtes Wissen über die Art des Wassers, das du gesucht hast, beanspruchen?

Die meisten würden zustimmen, dass diese Reisenden kein echtes Wissen besitzen; sie sind einfach zufällig über Wasser gestolpert, ohne stichhaltige Gründe zu haben, dessen Vorhandensein zu erwarten.

Wenn wir behaupten, etwas aus einem LLM gelernt zu haben, befinden wir uns in einer ähnlichen Lage wie die Reisenden von Dharmottara. Wenn das LLM effektiv trainiert wurde, sind die Ausgaben wahrscheinlich wahr, ähnlich wie das Entdecken von Wasser, wo es vorhergesagt wurde. Doch die Rechtfertigung, die die Behauptung stützt, existiert irgendwo im Datensatz, spielt jedoch keine Rolle bei der Generierung der Ausgabe.

Daher können Altman’s Zusicherungen irreführend sein. Wenn du ein LLM bittest, seine Ausgabe zu rechtfertigen, wird es eine überzeugende, aber oberflächliche Rechtfertigung erstellen – eine „Gettier-Rechtfertigung“, wie Hicks et al. es beschreiben. Diese Nachahmung von Rechtfertigung hat keine echte Grundlage.

Das Risiko irreführender Rechtfertigungen

Derzeit missverstehen oder „halluzinieren“ KI-Systeme häufig faktische Informationen, was zu Inkonsistenzen führt. Während die Illusion der Rechtfertigung zunehmend überzeugend wird, stehen wir vor zwei möglichen Ergebnissen:

1. Informierte Nutzer: Diejenigen, die sich der inhärenten Grenzen von KI bewusst sind, erkennen, dass LLMs täuschende Behauptungen produzieren.

2. Uninformierte Nutzer: Personen, die die Natur von KI-Ausgaben nicht verstehen, können in die Irre geführt werden, was es schwierig macht, zwischen Fakt und Fiktion zu unterscheiden.

Die Notwendigkeit von Rechtfertigung bei KI-Ausgaben

Obwohl LLMs als leistungsstarke Werkzeuge dienen, erzeugen sie Ausgaben, die einer genaueren Prüfung bedürfen. Nutzer, insbesondere solche ohne Fachkenntnisse, verlassen sich auf KI für wichtige Informationen – Jugendliche, die Hilfe bei Algebra suchen oder Ratschläge zu sicherem Sex. Um Verantwortung und Vertrauen in KI-Ausgaben zu gewährleisten, müssen wir die Rechtfertigung hinter jeder Aussage verstehen.

Glücklicherweise erkennen erfahrene Personen, dass Olivenöl eine bessere Wahl als Benzin zum Kochen von Spaghetti ist. Aber wie viele potenziell schädliche „Rezepturen“ für die Realität haben wir blind von KI akzeptiert, ohne deren Rechtfertigung zu hinterfragen?

Most people like

Find AI tools in YBX