ChatGPT-Plagiatoren, aufgepasst: OpenAI hat ein Tool entwickelt, das die Texte von GPT-4 mit beeindruckenden 99,99 % Genauigkeit erkennen kann. Dennoch überlegt das Unternehmen seit über einem Jahr, ob es öffentlich zugänglich gemacht werden soll. Laut TechCrunch verfolgt OpenAI einen „überlegten Ansatz“, da die Komplexität und die möglichen Auswirkungen dieses Tools auf das gesamte Ökosystem berücksichtigt werden müssen. Ein Sprecher von OpenAI betonte, dass „die von uns entwickelte Methode zur Textmarkierung technisches Potenzial zeigt, wir jedoch erhebliche Risiken abwägen. Dazu gehört die Möglichkeit der Umgehung durch böswillige Akteure und die unverhältnismäßige Auswirkung auf Gruppen wie Nicht-Englischsprechende.“
Das Textmarkierungssystem bettet ein spezifisches Muster in die Ausgaben des Modells ein, wodurch es vom OpenAI-Tool erkennbar, für die Nutzer jedoch unsichtbar ist. Während es Texte, die von der GPT-4-Engine erzeugt wurden, effektiv identifizieren kann, unterscheidet es nicht zwischen Ausgaben anderer KI-Modelle wie Gemini oder Claude. Zudem kann die Markierung leicht entfernt werden, indem der Text in eine andere Sprache übersetzt und dann ins Original zurückübersetzt wird.
Dies ist nicht OpenAIs erste Initiative zur Entwicklung eines Erkennungstools. Im vergangenen Jahr wurde ein ähnliches Projekt leise eingestellt, da die Erkennungsrate unzufriedenstellend war und es häufig zu Fehlalarmen kam. Das im Januar 2023 veröffentlichte Tool erforderte, dass Nutzer mindestens 1.000 Zeichen Beispielsätze zur Analyse eingaben. Mit nur 26 % Genauigkeit bei der korrekten Identifizierung von KI-generierten Inhalten wurde 9 % der menschlich verfassten Texte fälschlicherweise als KI-generiert eingestuft. Dies führte sogar dazu, dass ein Professor an der Texas A&M Universität eine gesamte Klasse aufgrund angeblicher Nutzung von ChatGPT bei Abschlussarbeiten nicht bestehen ließ.
Des Weiteren ist OpenAI besorgt über mögliche negative Reaktionen von Nutzern; laut Wall Street Journal halten 69 % der ChatGPT-Nutzer ein solches Tool für unzuverlässig und befürchten falsche Betrugsvorwürfe. Weitere 30 % gaben an, sie würden zu alternativen Modellen wechseln, falls OpenAI die Funktion einführt. Auch die Sorge, dass Entwickler die Wasserzeichen-Technologie zurückentwickeln könnten, um Gegenwerkzeuge zu schaffen, bleibt bestehen. Während OpenAI weiterhin Vor- und Nachteile der Einführung seines Markierungssystems abwägt, sind andere KI-Startups dabei, eigene Textdetektionswerkzeuge einzuführen, darunter GPTZero, ZeroGPT, Scribbr und Writer AI Content Detector. Doch die insgesamt mangelnde Genauigkeit dieser Tools bedeutet, dass das menschliche Auge nach wie vor unser verlässlichstes Mittel zur Erkennung von KI-generierten Inhalten bleibt – ein wenig beruhigender Gedanke.