Kontroverse KI-Deepfakes von Taylor Swift sorgen für Aufregung bei Fans und Politikern

Wenn Sie in den letzten 24 bis 48 Stunden auf X, der ehemaligen Twitter-Plattform, unterwegs waren, haben Sie wahrscheinlich auf KI-generierte Deepfake-Bilder und -Videos von Taylor Swift gestoßen. Diese expliziten Bilder zeigten sie in nicht einvernehmlichen Szenarien mit Fans ihres Freundes, NFL-Spieler Travis Kelce von den Kansas City Chiefs.

Diese nicht einvernehmlichen Darstellungen stießen auf Empörung bei Swifts Fans, während der Hashtag #ProtectTaylorSwift neben „Taylor Swift AI“ zum Trend wurde, während weltweit Nachrichten über den Vorfall berichteten. In der Zwischenzeit hatte X Schwierigkeiten, die Inhalte zu entfernen und deren erneute Verbreitung zu verhindern, was einem Spiel von "Whack-a-Mole" glich.

Der Vorfall hat die Diskussionen unter US-Gesetzgebern über die Regulierung des sich schnell entwickelnden Marktes für generative KI neu entfacht. Dabei bleiben grundlegende Fragen offen, wie man Vorschriften durchsetzen kann, ohne Innovationen zu behindern oder die durch den First Amendment geschützten Rechte auf Parodien, Fan-Art und andere Ausdrucksformen öffentlicher Personen einzuschränken.

Welche Werkzeuge wurden zur Erstellung der KI-Deepfakes verwendet?

Unklar ist bisher, welche spezifischen KI-Tools zur Erstellung der Swift-Deepfakes verwendet wurden. Führende Plattformen wie Midjourney und OpenAI’s DALL-E 3 verbieten die Erstellung von explizitem oder anstößigem Inhalt strikt. Laut Newsweek beanspruchte das Konto @Zvbear auf X die Verantwortung für die Veröffentlichung einiger der Deepfakes, machte dann jedoch sein Konto privat.

Untersuchungen des unabhängigen Technikportals 404 Media führten die Bilder zu einer Telegram-Gruppe zurück, die angeblich „Microsofts KI-Tools“ verwendete, insbesondere Microsofts Designer, der von DALL-E 3 betrieben wird und ähnliche Inhaltsbeschränkungen hat.

Trotz strenger Richtlinien ermöglicht das Open-Source-KI-Modell Stable Diffusion von Stability AI den Nutzern die Erstellung verschiedener Inhalte, einschließlich sexuell expliziter Materialien. Diese Flexibilität hat Besorgnis ausgelöst, da Plattformen wie Civitai als förderlich für die Erstellung nicht einvernehmlicher KI-Bilder markiert wurden. Während Civitai Maßnahmen angekündigt hat, um diesen Missbrauch zu bekämpfen, wurde es nicht mit den Swift-Deepfakes in Verbindung gebracht.

Die Implementierung von Stable Diffusion auf Clipdrop verbietet ebenfalls explizite Inhalte. Dennoch haben Nutzer beständig Wege gefunden, diese Sicherheitsvorkehrungen zu umgehen, was zu dem jüngsten Anstieg an Swift-Deepfake-Bildern führte.

Selbst inmitten der wachsenden Akzeptanz von KI für einvernehmliche kreative Projekte – wie HBOs True Detective: Night Country – könnte der Missbrauch der Technologie für schädliche Zwecke ihr öffentliches Image trüben und zu strikteren Vorschriften führen.

Potenzielle rechtliche Schritte

Ein Bericht von The Daily Mail indicates, dass Taylor Swift "wütend" über die Verbreitung der expliziten Bilder ist und rechtliche Schritte in Erwägung zieht. Es bleibt unklar, ob diese Maßnahmen sich gegen die Plattform Celeb Jihad richten, die die Bilder gehostet hat, gegen die KI-Tools, die ihre Erstellung ermöglichten, oder gegen die Verantwortlichen.

Dieser Vorfall hat die Bedenken hinsichtlich generativer KI-Tools und ihrer potenziellen Fähigkeit, schädliche Bilder von realen Personen zu erstellen, verstärkt und die Forderungen nach strengeren Vorschriften von US-Gesetzgebern angeheizt.

Tom Kean, Jr., ein republikanischer Kongressabgeordneter aus New Jersey, hat kürzlich zwei Gesetze eingebracht: das AI Labeling Act und das Preventing Deepfakes of Intimate Images Act. Beide Vorschläge zielen darauf ab, die Regulierung im KI-Bereich zu verbessern.

Das AI Labeling Act würde vorschreiben, dass KI-generierte Inhalte eine klare Kennzeichnung tragen, die auf ihre künstliche Erstellung hinweist, obwohl die Wirksamkeit solcher Kennzeichnungen zur Verhinderung der Verbreitung von explizitem Inhalt fraglich ist. Meta und OpenAI haben bereits ähnliche Kennzeichnungsmaßnahmen implementiert, um die Nutzer über KI-generierte Bilder zu informieren.

Das zweite Gesetz, von Demokrat Joe Morelle mitunterzeichnet, zielt darauf ab, den Violence Against Women Act zu ändern. Es würde Opfern von nicht einvernehmlichen Deepfakes das Recht geben, rechtliche Schritte gegen die Ersteller und Plattformen einzuleiten und möglicherweise Schadensersatz in Höhe von 150.000 Dollar sowie bis zu 10 Jahre Haft für Übeltäter zu erwirken.

Obwohl diese Gesetze Swift in ihrem Fall möglicherweise nicht direkt unterstützen, könnten sie den Weg für bessere Schutzmaßnahmen für zukünftige Opfer von KI-generierten Deepfakes ebnen.

Damit beide Gesetze in Kraft treten können, müssen sie die relevanten Ausschüsse durchlaufen, eine Abstimmung durch das gesamte Repräsentantenhaus erhalten und ein entsprechendes Gesetz im Senat passieren. Derzeit befinden sich beide Gesetze noch in der Einführungsphase.

Erklärung von Kongressabgeordneter Kean zum Vorfall

In Reaktion auf den Deepfake-Vorfall erklärte Kongressabgeordneter Kean: „Die KI-Technologie entwickelt sich schneller als die notwendigen Schutzvorkehrungen. Ob die Opfer Taylor Swift oder junge Menschen in unserem Land sind, wir müssen Schutzmaßnahmen einrichten, um diesem alarmierenden Trend entgegenzuwirken. Mein Gesetz, das AI Labeling Act, wäre ein bedeutender Schritt nach vorn.“

Dieser Vorfall, zusammen mit ähnlichen Ereignissen, verdeutlicht die dringende Notwendigkeit legislativer Maßnahmen zur Bewältigung der wachsenden Bedenken hinsichtlich KI-generierter Inhalte und deren Auswirkungen auf Datenschutz und persönliche Sicherheit.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles