Eine Erinnerung an KI-gestützte Chatbots
KI-gestützte Chatbots wie ChatGPT können fälschlicherweise Informationen präsentieren, ähnlich wie ein GPS, das Sie fälschlicherweise durch einen See leitet. Diese Erinnerung basiert auf einem aktuellen Experiment des Nieman Labs, das untersuchen wollte, ob ChatGPT präzise Links zu Artikeln von Nachrichtenorganisationen, die lukrative Verträge mit OpenAI haben, bereitstellen kann.
Die Ergebnisse waren besorgniserregend. Statt korrekter URLs erzeugte ChatGPT vollständig fiktive Links, die zu 404-Fehlerseiten führten. In der KI-Branche wird dieses Phänomen oft als „Halluzination“ bezeichnet – ein treffender Begriff für ein System, das Informationen sicher falsch darstellt. Andrew Deck vom Nieman Lab bat ChatGPT, Links zu exklusiven Artikeln von zehn großen Verlagen zu generieren. Die Ergebnisse spiegelten frühere Tests wider, darunter einen mit Business Insider, der ähnlich inkorrekte URLs lieferte.
Ein Vertreter von OpenAI gestand dem Nieman Lab gegenüber ein, dass das Unternehmen weiterhin an einem System arbeitet, das die Fähigkeiten von Konversations-KI mit aktuellen Nachrichteninhalten verbinden soll. Dieses System soll eine korrekte Attribution und genaue Verlinkung zu Quelldokumenten gewährleisten, aber Details zu Zeitrahmen und Zuverlässigkeit bleiben unklar.
Trotz dieser Unsicherheiten speisen Nachrichtenorganisationen weiterhin umfangreiche Inhalte in die Modelle von OpenAI ein, oft auf Kosten ihrer Integrität. Währenddessen nutzen KI-Unternehmen ungeklärte Inhalte aus verschiedenen Quellen, um ihre Modelle zu trainieren. Mustafa Suleyman, Leiter der KI bei Microsoft, bezeichnete alle veröffentlichten Internetinhalte als „Freeware“ und bekräftigte damit eine Kultur der Ausbeutung. Zum Zeitpunkt dieser Schrift betrug Microsofts Marktwert 3,36 Billionen Dollar.
Die zentrale Botschaft ist deutlich: Wenn ChatGPT URLs fälscht, wird es auch Fakten erfinden. Im Kern funktioniert generative KI als ein fortgeschrittener Autocomplete, der lediglich das nächste logische Wort in einer Sequenz vorhersagt, ohne echtes Verständnis. Zum Beispiel hatten führende Chatbots, die ich zur Lösung des New York Times Spelling Bee testete, erhebliche Schwierigkeiten. Das deutet darauf hin, dass es riskant ist, sich auf generative KI für zuverlässige Informationen zu verlassen.