Tage nach der beeindruckenden Präsentation seines neuen KI-Video-Generierungsmodells Sora sah sich OpenAI mit einem erheblichen Rückschlag konfrontiert. Am 20. Februar 2024 begann ChatGPT, unzusammenhängende und sinnlose Ausgaben zu erzeugen, was die Nutzer in sozialen Medien wie X (ehemals Twitter) frustriert äußern ließ.
Einige Antworten zeigten, dass ChatGPT bizarre Kombinationen aus Englisch und Spanisch produzierte, was zu unverständlichen Sätzen voll erfundener Wörter und sich wiederholender Phrasen führte, die weit von den ursprünglichen Nutzeranfragen abwichen. Ein aufmerksamer Nutzer verglich diese willkürlichen Wortfolgen mit dem beunruhigenden "weird horror"-Alien-Graffiti aus Jeff VanderMeers Roman Annihilation von 2014. Diese Analogie fand bei Lesern Anklang, die eine unheimliche Qualität wahrnahmen, die an eine nicht synchronisierte, unmenschliche Intelligenz erinnerte.
Während einige Nutzer humorvoll über eine mögliche "Roboter-Revolte" spekulierten – ein Echo populärer Sci-Fi-Erzählungen wie Terminator und Die Matrix – wiesen andere die Vorfälle als bloße Störungen zurück. Viele warnten, dass solche Fehler die Glaubwürdigkeit von generativen KI-Tools bei Schreib- und Programmieraufgaben infrage stellen.
Um 15:40 Uhr PST am 20. Februar bestätigte OpenAI das Problem auf seinem öffentlichen Status-Dashboard. Kurz darauf, um 15:47 Uhr PST, berichtete das Unternehmen, dass es die Ursache identifiziert und aktiv daran gearbeitet habe. Fast um 17 Uhr PST bestätigten sie, dass die Situation weiterhin überwacht wurde.
Am nächsten Tag um 10:30 Uhr PST beruhigte der verifizierte ChatGPT-Account auf X die Nutzer mit der Botschaft: "Gestern etwas vom Kurs abgekommen, aber sollte wieder betriebsbereit sein!" Später teilte der ChatGPT-Account ein Nachwort-Update von OpenAIs Website, das erklärte, dass "eine Optimierung des Nutzererlebnisses einen Fehler bei der Sprachverarbeitung des Modells eingeführt hat", aber bestätigte, dass eine Lösung implementiert wurde.
Trotz der schnellen Behebung der Probleme wurden Bedenken hinsichtlich der Zuverlässigkeit und Integrität von ChatGPT sowie anderen OpenAI-Produkten wie GPT-4 und GPT-3.5 laut, insbesondere in kritischen Bereichen wie Transport, Gesundheitswesen und Ingenieurwesen. Die drängende Frage bleibt: Wie können ähnliche Probleme in der Zukunft verhindert werden?