In der jüngeren Geschichte hat keine Technologie eine größere Bedrohung für die Gesellschaft dargestellt als Deepfakes. Diese manipulativen, KI-generierten Inhalte werden bereits im politischen Kontext als Waffe eingesetzt und sollen die bevorstehenden Präsidentschaftswahlen sowie die Senats- und Abgeordnetenwahlen in den USA dominieren. Während die Regulierungsbehörden kämpfen, die Technologie einzudämmen, werden extrem realistische Deepfakes genutzt, um Kandidaten zu diskreditieren, die öffentliche Meinung zu beeinflussen und die Wählerbeteiligung zu manipulieren. Im Gegensatz dazu versuchen einige Kandidaten, generative KI zur Verbesserung ihrer Kampagnen zu nutzen, oft mit katastrophalen Ergebnissen.
Professor Hany Farid von der Universität von Kalifornien, Berkeley, hat ein Projekt initiiert, um Deepfakes während des Präsidentschaftswahlkampfs 2024 zu überwachen. „Meine Hoffnung ist, dass wir durch die Aufklärung über diese Inhalte das Bewusstsein in den Medien und der Öffentlichkeit schärfen – und den Schöpfern dieser Inhalte signalisieren, dass wir aufmerksam sind und euch finden werden“, erklärte Farid.
Ein bemerkenswertes Beispiel zeigt Bilder von Präsident Joe Biden in Militäruniform in einem Befehlszentrum. Die Website hebt Inkonsistenzen hervor, wie falsch platzierte Computermäuse und ein verzerrtes Deckenmuster, die die Bilder als manipuliert entlarven. Farids Forschung thematisiert auch die berüchtigten Deepfake-Robocalls, die Biden vor den Vorwahlen in New Hampshire imitieren. Diese Anrufe forderten die Bürger auf, nicht zu wählen, mit der Behauptung: „Wählen an diesem Dienstag ermöglicht nur den Republikanern, den ehemaligen Präsidenten Donald Trump wieder zu wählen.“ Der Ursprung der Anrufe bleibt unklar, aber die Sprachqualität wirkt niedrig und eigenartig.
In einem weiteren Beispiel behauptet ein Deepfake von Ron DeSantis fälschlicherweise: „Ich hätte Präsident Trump, den besten Präsidenten meines Lebens, nie herausfordern sollen.“ Die Seite kritisiert zudem einen Montage von Trump mit dem ehemaligen Chief Medical Advisor Anthony Fauci, wobei auffällige Inkonsistenzen wie ein unsinniges Weißes Haus-Logo und verzerrte Elemente auf der amerikanischen Flagge bemerkt werden. Farid stellt fest, dass schon kleine Verschiebungen in der Wählerstimmung eine Wahl kippen können, insbesondere in entscheidenden Bundesstaaten.
Die Reichweite von Deepfakes nimmt zu, mit zunehmend ausgeklügelten Beispielen, die Trump in Festnahme-Szenarien, den ukrainischen Präsidenten Zelensky, der Soldaten zur Kapitulation aufruft, und Vizepräsidentin Kamala Harris, die betrunken auf einer öffentlichen Veranstaltung erscheint, darstellen. Diese manipulativen Werkzeuge haben bereits Wahlen in Ländern wie der Türkei und Bangladesch beeinflusst, während einige Politiker, wie der Abgeordnete Dean Phillips aus Minnesota und der Bürgermeister von Miami, Francis Suarez, Deepfakes genutzt haben, um Wähler zu mobilisieren.
„Ich habe einen Anstieg sowohl in der Raffinesse als auch im Missbrauch von Deepfakes beobachtet“, bemerkt Farid. „Dieses Jahr fühlt sich wie ein Wendepunkt an, da Milliarden weltweit zur Wahl stehen und sich die Technologie rasant weiterentwickelt.“
Die Gefahr geht über die Manipulation von Wählern hinaus, da Deepfakes als Vorwände für rechtswidriges oder unangemessenes Verhalten dienen können. Dieses Phänomen, bekannt als der „Lügner-Dividende“, wurde bereits von Persönlichkeiten wie Trump und Elon Musk ausgenutzt. „Wenn alles gefälscht werden kann, muss nichts echt sein“, betont Farid.
Forschung zeigt, dass Menschen Deepfake-Videos nur etwas über 50% der Zeit erkennen können und gefälschte Audios in 73% der Fälle. Da die Technologie ausgesprochen realistisch wird, kann die Verbreitung manipulierten Inhalts in sozialen Medien schnell Falschinformationen anheizen. „Vor einem Jahr waren Deepfakes größtenteils bildbasiert und relativ offensichtlich“, erinnert sich Farid. „Heute sehen wir ausgefeilte Audio- und Video-Deepfakes, die Zuschauer leicht in die Irre führen können.“
Obwohl es schwierig ist, konsistente Warnsignale zu identifizieren, rät Farid davon ab, sich auf soziale Medien für Nachrichten zu verlassen. „Wenn Sie soziale Medien nutzen müssen, verlangsamen Sie, denken Sie kritisch nach, bevor Sie teilen, und erkennen Sie Ihre Vorurteile. Falsche Informationen zu teilen verschärft das Problem nur.“
Für praktische Tipps bietet das Detect Fakes-Projekt der Northwestern University einen Test zur Einschätzung der Erkennungsfähigkeit, und das MIT Media Lab stellt Anleitungen bereit, die folgendes umfassen:
- Konzentrieren Sie sich auf Gesichter, da hochqualitative Manipulationen fast immer Gesichtsalterationen beinhalten.
- Achten Sie auf Hautinkonsistenzen, wie übermäßig glatte oder faltige Wangen und Stirnen, die sich von der Haar- und Augenstruktur abheben können.
- Beobachten Sie Schatten und Lichteffekte, die nicht mit der Physik übereinstimmen.
- Überprüfen Sie übertriebene Reflexionen auf Brillen, die sich nicht mit der Bewegung verändern.
- Analysieren Sie Gesichtshaare auf unnatürliches Hinzufügen oder Entfernen.
- Achten Sie auf Blinzelmuster und Lippenbewegungen, da viele Deepfakes auf Lippen-Synchronisation basieren.
Wenn Sie einen Deepfake im Zusammenhang mit den US-Wahlen vermuten, ziehen Sie in Betracht, Farid für eine weitere Untersuchung zu kontaktieren.