iProov: 70 % der Organisationen erwarten große Auswirkungen von generativen KI-Tieffakes

In der renommierten HBO-Serie „Game of Thrones“ warnt der Satz „Die Weißen Wanderer kommen“ vor einer bedrohlichen Rasse von Eisgeschöpfen, die die Menschheit bedrohen. In ähnlicher Weise argumentiert Ajay Amlani, Präsident des Unternehmens für biometrische Authentifizierung iProov, dass wir Deepfakes mit gleicher Dringlichkeit betrachten sollten.

„In den letzten Jahren gab es zunehmende Besorgnis bezüglich Deepfakes“, erklärte Amlani. „Jetzt ist der Winter da.“ Laut einer aktuellen iProov-Umfrage haben 47 % der Organisationen Deepfakes erlebt, und 70 % glauben, dass generativ von KI erstellte Deepfakes erhebliche Auswirkungen auf ihre Geschäfte haben werden. Alarmierend ist, dass nur 62 % diese Bedrohung ernst nehmen.

„Das ist ein ernsthaftes Thema“, betonte Amlani. „Man kann vollständig fiktive Personen erstellen, die aussehen, klingen und reagieren, als wären sie echt.“ Deepfakes – realistische, gefälschte Avatare, Stimmen und Medien – haben sich rasant weiterentwickelt und sind oft nahezu von der Realität nicht zu unterscheiden. Diese Raffinesse birgt erhebliche Risiken für Unternehmen und Regierungen. So verlor ein Mitarbeiter in einem Finanzunternehmen beispielsweise 25 Millionen Dollar, nachdem er durch einen Deepfake-Videoanruf seines „Chief Financial Officers“ in die Irre geführt worden war. Zudem enthüllte das Cybersecurity-Unternehmen KnowBe4, dass ein neuer Mitarbeiter ein nordkoreanischer Hacker war, der Deepfake-Technologie einsetzte, um Sicherheitsmaßnahmen zu umgehen.

Amlani stellte regionale Unterschiede bei Deepfake-Vorfällen fest: 51 % der Organisationen im asiatisch-pazifischen Raum, 53 % in Europa und 53 % in Lateinamerika berichteten von Begegnungen mit Deepfakes, während es in Nordamerika nur 34 % waren. „Viele böswillige Akteure agieren international und zielen oft zuerst auf lokale Regionen ab“, fügte er hinzu.

Die Umfrage stuft Deepfakes unter den wichtigsten Sicherheitsbedenken ein, neben Passwortverletzungen (64 %) und Ransomware (63 %), wobei sowohl Phishing/sozialer Manipulation als auch Deepfakes 61 % der Befragten betreffen. „Es wird zunehmend schwierig, irgendetwas Digitales zu vertrauen“, sagte Amlani. „Es ist entscheidend, dass wir alles Online in Frage stellen und robuste Verteidigungen zur Identitätsüberprüfung aufbauen.“

Biometrische Lösungen gegen Deepfake-Bedrohungen

Der Anstieg der Verarbeitungsgeschwindigkeiten, verbesserter Informationsaustausch und generative KI haben Bedrohungsakteuren die Möglichkeit gegeben, ausgeklügelte Deepfakes zu erstellen. Laut Amlani sind einige grundlegende Maßnahmen vorhanden – wie Inhaltsmarkierungen auf Video-Sharing-Plattformen –, aber diese sind unzureichend. „Solche Versuche kratzen kaum an der Oberfläche eines weitreichenden Problems“, bemerkte er.

Traditionelle Verifizierungsmethoden wie Captchas sind zu kompliziert geworden, was es selbst ehrlichen Nutzern, insbesondere älteren Personen oder Menschen mit kognitiven Einschränkungen, erschwert, ihre Identität nachzuweisen. Amlani befürwortet daher biometrische Authentifizierung als effektivere Lösung.

Die Forschung von iProov zeigt, dass 75 % der Organisationen Gesichtsbionetrie als primären Schutz gegen Deepfakes anwenden, gefolgt von multifaktorieller Authentifizierung (67 %) und Schulungen über die Risiken von Deepfakes (63 %). Unternehmen überprüfen auch ihre Sicherheitsmaßnahmen (57 %) und aktualisieren Systeme (54 %), um Bedrohungen durch Deepfakes zu bekämpfen.

Die Effektivität verschiedener biometrischer Methoden zur Bekämpfung von Deepfakes ist wie folgt:

- Fingerabdruck: 81 %

- Iris: 68 %

- Gesicht: 67 %

- Fortgeschrittenes Verhalten: 65 %

- Handfläche: 63 %

- Einfaches Verhalten: 50 %

- Stimme: 48 %

Nicht alle biometrischen Werkzeuge sind gleichermaßen effektiv, merkte Amlani an. Einige Methoden erfordern umständliche Bewegungen, die es den Deepfake-Erstellern erleichtern, diese zu umgehen. Im Gegensatz dazu nutzt iProov ein KI-gestütztes Werkzeug, das Lichtreflektionen vom Bildschirm des Geräts analysiert und einzigartige Gesichtszüge untersucht. Wenn die Ergebnisse von den erwarteten Mustern abweichen, kann dies darauf hindeuten, dass ein Bedrohungsakteur versucht, physische Bilder oder Masken auszunutzen.

Die Technologie von iProov wird in kommerziellen und staatlichen Sektoren eingesetzt, und Amlani behauptet, sie biete eine „äußerst sichere, schnelle Lösung“ mit einer Bestehensquote von über 98 %.

„Es gibt ein weit verbreitetes Bewusstsein für die Bedrohung durch Deepfakes“, schloss Amlani. „Ein globaler Einsatz ist entscheidend, um dieses Problem zu bekämpfen, da böswillige Akteure ohne Grenzen agieren. Es ist Zeit, uns auf diese Herausforderung vorzubereiten.“

Most people like

Find AI tools in YBX