In einem heutigen Beitrag kündigte Meta Pläne an, KI-generierte Inhalte auf Facebook, Instagram und Threads zu identifizieren und zu kennzeichnen, räumte jedoch ein, dass „es derzeit noch nicht möglich ist, alle KI-generierten Inhalte zu identifizieren.“ Dieser Schritt erfolgt angesichts der viralen Verbreitung pornografischer KI-Deepfakes von Sängerin Taylor Swift auf Twitter, die bei Fans, Gesetzgebern und globalen Medien auf Widerstand stieß. Dies ist besonders relevant, da Meta zunehmendem Druck ausgesetzt ist, KI-generierte Bilder und manipulierte Videos vor den US-Wahlen 2024 zu regulieren.
Nick Clegg, Präsident der globalen Angelegenheiten bei Meta, erklärte: „Es sind noch frühe Tage für die Verbreitung von KI-generierten Inhalten.“ Er wies darauf hin, dass mit dem Wachstum der KI-Nutzung „die Gesellschaft Debatten darüber führen wird, wie man sowohl synthetische als auch nicht-synthetische Inhalte identifizieren kann.“ Clegg betonte, dass Meta die Entwicklungen weiter beobachten, mit Branchenkollegen zusammenarbeiten und Gespräche mit Regierungen sowie der Zivilgesellschaft führen werde.
Metas Initiativen stimmen mit den Best Practices der Branche überein, wie die Partnerschaft mit der Partnership on AI (PAI) zeigt, die Standards zur Identifizierung von KI-generierten Inhalten etabliert. Die Plattform plant, von Nutzern hochgeladene Bilder zu kennzeichnen, wenn sie Anzeichen für eine KI-Generierung erkennt. Seit der Einführung ihres KI-Bilddienstes werden fotorealistische Bilder, die mit Meta AI erstellt wurden, als „Imagined with AI“ gekennzeichnet.
Clegg hob hervor, dass die aktuellen Methoden von Meta an der Spitze der technischen Möglichkeiten stehen. „Wir arbeiten intensiv an Klassifizierern, um KI-generierte Inhalte automatisch zu erkennen, selbst in Abwesenheit unsichtbarer Marker“, fügte er hinzu und strebt zudem an, unsichtbare Wasserzeichen vor Entfernung oder Veränderung zu schützen.
Diese Ankündigung ist Teil von Metas umfassenderen Bemühungen, KI-generierte Inhalte effektiv zu identifizieren und zu kennzeichnen, unter Verwendung von Techniken wie unsichtbaren Wasserzeichen. Im Juli 2023 verpflichteten sich sieben Tech-Unternehmen zu konkreten Schritten zur Verbesserung der KI-Sicherheit, einschließlich Wasserzeichen, während Google DeepMind eine Beta-Version von SynthID einführte, die nicht wahrnehmbare digitale Wasserzeichen direkt in Bilder einbettet.
Dennoch warnen Experten, dass digitale Wasserzeichen, ob sichtbar oder verborgen, nicht narrensicher sind. Ein Professor für Informatik an der Universität Maryland wies darauf hin: „Wir verfügen derzeit über kein zuverlässiges Wasserzeichen — wir haben sie alle geknackt.“ Feizi und sein Team demonstrierten, wie einfach es für böswillige Akteure ist, Wasserzeichen zu entfernen oder fälschlicherweise in von Menschen erstellte Bilder einzufügen, was zu fehlerhaft gekennzeichneten Inhalten führt.
Margaret Mitchell, Chefethikerin bei Hugging Face, betonte, dass obwohl unsichtbare Wasserzeichen keine endgültige Lösung zur Identifizierung von KI-generierten Inhalten darstellen, sie wertvolle Werkzeuge für legitime Kreatoren sind, die eine Form von „Nährwertkennzeichnung“ für KI-Inhalte suchen. Sie hob die Bedeutung der Herkunft von Inhalten hervor: „Es ist entscheidend zu wissen, woher Inhalte stammen und wie sie sich entwickelt haben, um Zustimmung, Kredit und Vergütung nachverfolgen zu können.“
Mitchell äußerte Begeisterung für das Potenzial von Wasserzeichen-Technologien und erkannte an, dass, obwohl Schwächen in der KI bestehen, die Gesamttechnologie vielversprechend ist. „Es ist wichtig, das große Ganze inmitten der jüngsten Diskussionen über die Fähigkeiten der KI zu erkennen“, schloss sie.