In der vergangenen Woche hat OpenAI den GPT Store eröffnet, der es Drittanbietern ermöglicht, benutzerdefinierte Chatbots (GPTs) zu präsentieren und monetarisieren. Doch die Innovationen des Unternehmens stehen mit dem Beginn von Januar 2024 nicht still.
Am Montag veröffentlichte OpenAI einen Blogbeitrag, der neue Sicherheitsmaßnahmen für seine KI-Tools skizziert, insbesondere für das Bildgenerierungsmodell DALL-E und die Zitierpraktiken in ChatGPT. Diese Initiative zielt darauf ab, Desinformation im Vorfeld der zahlreichen weltweiten Wahlen in diesem Jahr zu bekämpfen. „Die Integrität der Wahlen zu schützen, erfordert eine Zusammenarbeit aus allen Bereichen des demokratischen Prozesses, und wir möchten sicherstellen, dass unsere Technologie nicht auf eine Weise eingesetzt wird, die diesen Prozess untergraben könnte“, heißt es im Blog.
Zu den aktuellen Sicherheitsvorkehrungen gehört eine „Melden“-Funktion, die Nutzern ermöglicht, potenzielle Verstöße im Zusammenhang mit benutzerdefinierten GPTs zu kennzeichnen, einschließlich solcher, die echte Personen oder Institutionen impersonieren, was gegen die Nutzungsrichtlinien von OpenAI verstößt.
Erwartete neue Maßnahmen
Der Blog von OpenAI enthüllt, dass Nutzer bald weltweit auf Echtzeit-Nachrichten zugreifen können, die mit Quellenangaben und Links versehen sind, um die Glaubwürdigkeit der über ChatGPT abgerufenen Informationen zu erhöhen. Diese Verbesserung steht im Einklang mit OpenAIs Partnerschaften mit angesehenen Medien wie der Associated Press und Axel Springer, dem Heimatort von Politico und Business Insider.
Ein bemerkenswerter Schritt wird die Implementierung von Bildnachweisen durch die Coalition for Content Provenance and Authenticity (C2PA) sein. Diese Initiative zielt darauf ab, das digitale Wasserzeichen für KI-generierte Inhalte anzuwenden, sodass sie künftig erkenntlich sind. OpenAI plant, die C2PA-Nachweise Anfang dieses Jahres in DALL-E 3-Bilder zu integrieren, ein konkretes Datum steht jedoch noch nicht fest.
Darüber hinaus stellte OpenAI seinen „Provenance Classifier“ vor, ein Werkzeug, das dazu dient, Bilder zu erkennen, die von DALL-E generiert wurden. Dieses zunächst während des DALL-E 3-Launchs im Herbst 2023 erwähnte Tool ermöglicht es Nutzern, Bilder hochzuladen, um deren KI-Herkunft zu bestimmen. „Unsere internen Tests haben ermutigende Ergebnisse gezeigt, selbst bei Bildern, die typischen Modifikationen ausgesetzt waren“, so der Blog. „Wir planen, es bald einer ersten Testergruppe, darunter Journalisten, Plattformen und Forscher, zur Verfügung zu stellen, um Feedback zu erhalten.“
Die Rolle von KI im politischen Wahlkampf
Während politische Organisationen wie das Republican National Committee (RNC) in den USA zunehmend KI für die Kommunikation nutzen, einschließlich der Irreführung von Gegnern, bleibt ungewiss, wie effektiv OpenAIs Sicherheitsmaßnahmen sein werden, um erwartete Wellen digitaler Desinformation einzudämmen. Dennoch positioniert sich OpenAI offensichtlich als Befürworter von Wahrheit und Genauigkeit angesichts der Bedenken über den Missbrauch seiner Tools.