Als Reaktion auf einen Bericht des Wall Street Journal, der nahelegt, dass OpenAI ein Werkzeug zur genauen Identifizierung von von ChatGPT generierten Aufsätzen entwickelt hat, hat das Unternehmen Einblicke in seine Forschung zur Textwasserzeichen-Technologie gegeben. Der Bericht deutet an, dass Diskussionen über die Veröffentlichung des Tools dessen öffentliche Verfügbarkeit verzögert haben, obwohl es angeblich "bereit" ist.
OpenAI erklärte: "Unsere Teams haben eine Methode zum Textwasserzeichen entwickelt, die wir weiterhin evaluieren, während wir Alternativen erkunden." Das Unternehmen betonte, dass Wasserzeichen nur eine von mehreren Ansätzen ist, neben Klassifizierern und Metadaten, die im Rahmen umfangreicher Forschungsarbeiten zur Textherkunft untersucht werden.
Obwohl OpenAI behauptet, dass die Wasserzeichen-Methode in bestimmten Szenarien eine hohe Genauigkeit gezeigt hat, hat sie Schwierigkeiten mit spezifischen Manipulationen, wie der Verwendung von Übersetzungssystemen, dem Umformulieren mit unterschiedlichen generativen Modellen oder dem Einfügen und anschließenden Entfernen von Sonderzeichen zwischen Wörtern. Zudem wies OpenAI Bedenken auf, dass das Wasserzeichen bestimmte Benutzergruppen unverhältnismäßig benachteiligen könnte, und merkte an: "Es könnte beispielsweise die Nutzung von KI als hilfreiches Schreibwerkzeug für nicht muttersprachliche Englischsprecher stigmatisieren."
In ihrem Blogbeitrag betonte OpenAI, dass das Unternehmen diese potenziellen Risiken sorgfältig abwägt. Darüber hinaus hat die Firma die Veröffentlichung von Authentifizierungstools für audiovisuell Inhalte priorisiert. Ein Sprecher von OpenAI stellte klar, dass das Unternehmen aufgrund der damit verbundenen Komplexität und der möglichen Auswirkungen auf das breitere Ökosystem über die eigenen Operationen hinaus einen "überlegten Ansatz" zur Textherkunft wählt.