Generative KI kann in Sekunden ein Sonett verfassen, ermöglicht jedoch auch Milliardenbeträge an Identitätsbetrug, der die Reputation von Einzelpersonen, Organisationen und Regierungen erheblich schädigt. Laut dem Global Identity Fraud Report Q2 2023 von AU10TIX hat der organisierte Identitätsbetrug in den USA im Vergleich zu den vorherigen Quartalen um 44% zugenommen.
Die Daten in diesem Bericht stammen aus den KI-gestützten Betrugserkennungslösungen von AU10TIX, insbesondere dem Serial Fraud Monitor. Dieses Tool dokumentiert einen Anstieg professioneller, organisierter Angriffe und verschiedener Angriffsarten weltweit, mit einem besonderen Fokus auf anfällige Sektoren wie den Krypto-Handel und Zahlungsverkehr. Dieser Anstieg korreliert direkt mit unserer zunehmend digitalen Welt, in der es schwieriger wird, Vertrauen zwischen Finanzdienstleistungen, Verbrauchern und der Technologie zur Sicherstellung sicherer Interaktionen aufzubauen – ein Problem, das durch generative KI noch verschärft wird.
„Große Sprachmodelle und generative KI ermöglichen es Betrügern, gültige Identitäten überzeugend nachzuahmen, was die Unterscheidung zwischen Fälschungen und echten Identitäten kompliziert“, erklärt Dan Yerushalmi, CEO von AU10TIX. „Betrüger eröffnen nicht nur einige Konten; sie führen umfassende Schwarmangriffe durch, die Wochen oder Monate dauern können und weitreichenden Schaden anrichten“, fügt Ofer Friedman, Chief Business Development Officer von AU10TIX, hinzu. „Organisationen haben mit schwereren Auswirkungen zu kämpfen und fühlen sich oft überfordert.“
Verbraucher fordern erhöhte Sicherheit und Kontrolle und legen zunehmend mehr Wert auf Sicherheit als auf Komfort. Organisationen, die diese Sicherheitsanforderungen nicht erfüllen, riskieren den Verlust des Kundenvertrauens.
Die Auswirkungen von generativer KI auf Betrug
„Generative KI stattet Betrüger mit riesigen Datenmengen aus und ermöglicht es ihnen, ihre Methoden unbegrenzt anzupassen“, erklärt Yerushalmi. „Sie ist zugänglich und kostengünstig, was neue Akteure anzieht, die diese Cyberangriffs-Tools für erhebliche Auswirkungen nutzen können.“
Generative KI beeinflusst Betrug durch mehrere Mechanismen. Deepfakes können realistische Bilder, Sprachaufnahmen und Videos erzeugen, um fortschrittliche Social Engineering- und Phishing-Angriffe durchzuführen. Betrüger setzen Deepfakes ein, um gefälschte Konten zu erstellen, die Identitätsverifizierung zu umgehen oder biometrische Systeme durch Präsentations- und Injektionsangriffe auszutricksen.
Darüber hinaus ermöglicht generative KI Betrügern, ganze Identitäten zu fälschen. „Betrüger übernehmen KI-Technologien schneller als andere Sektoren“, bemerkt Friedman. „Diese Technologie verändert die Dynamik der Betrugserkennung. Früher war es entscheidend, Manipulationsanzeichen zu identifizieren, jetzt wird die Entdeckung völlig gefälschter Identitäten kritisch.“
Synthetische IDs – Kombinationen aus gestohlenen Sozialversicherungsnummern, Namen, Adressen und gefälschten Informationen – können Verifizierungstests bestehen. Diese weiterentwickelten digitalen Personas ahmen legitimes menschliches Verhalten nach, was die Erkennung erschwert und den Weg für koordinierte Betrugsmaßnahmen wie Kreditbetrug, Kontoübernahmen und Geldwäsche ebnet.
Bekämpfung von Betrug mit KI-Tools
Wie können Organisationen nahezu unentdeckbaren Betrug bekämpfen? Friedman schlägt vor, bestehende Sicherheitsmaßnahmen mit generativen KI-Detektionsfähigkeiten zu verstärken. „Um diesen Bedrohungen entgegenzuwirken, ist die Implementierung mehrschichtiger Erkennungsstrategien unerlässlich, um Betrug und seine Täter aus verschiedenen Perspektiven zu bewerten.“
Die Erkennung von KI-deepfakes verwendet Algorithmen zur Identifizierung manipulierten Inhalts, wobei Faktoren wie Gesichtsveränderungen und Beleuchtungsinkonsistenzen bewertet werden. Die Integration biometrischer Marker – wie Gesichtspunkte und Sprachmuster – sorgt für zusätzliche Überprüfung.
Organisationen sollten automatisierte KI- und maschinelle Lernsysteme zur Identitätsverifizierung einführen und eine robuste Schicht zur Erkennung komplexer koordinierter Angriffe auf Netzwerkverkehrsebene hinzufügen. Ein fortschrittliches neuronales Netzwerk kann subtile Betrugsmuster in Echtzeit analysieren und proaktive Eingriffe ermöglichen. Der Serial Fraud Monitor von AU10TIX aggregiert anonymisierte Daten aus verschiedenen Großinstitutionen und erleichtert die Identifizierung sophistizierter Betrugsmuster.
Yerushalmi betont, dass, während generative KI sowohl die Betrugsfähigkeiten als auch die Detektion verbesserte, traditionelle Algorithmen nicht außer Acht gelassen werden sollten. „Ein ausgewogener Ansatz, der maschinelles Lernen, KI und grundlegende Techniken kombiniert, ist entscheidend für optimale Ergebnisse.“
Optimierte Betrugsprävention ist unerlässlich; Kunden legen zunehmend Wert auf Sicherheit, verlangen jedoch gleichzeitig ein nahtloses Benutzererlebnis. „Nutzer verlassen Unternehmen, die mit dem Prozess unzufrieden sind, und entscheiden sich für verfügbare Alternativen“, warnt Yerushalmi. „Sie verlieren schnell die Geduld, daher muss die Integration schützender Technologien in die Authentifizierung den Schutz erhöhen, ohne das Benutzererlebnis zu beeinträchtigen.“
Erhaltung des Kundenvertrauens
Die Kunden vor Betrug zu schützen, ist eine rechtliche und ethische Verpflichtung der Organisation – entscheidend für das Überleben des Unternehmens. Diese Verantwortung umfasst den Schutz der Kunden vor finanziellen Verlusten sowie den Aufbau von Vertrauen und Loyalität. Die Bekämpfung anspruchsvoller Betrügereien weltweit erfordert die Zusammenarbeit der Organisationen.
„Organisationen müssen sich zusammenschließen, um Betrug weltweit zu bekämpfen, und AU10TIX setzt sich dafür ein, Vertrauen in diesem Bestreben zu fördern“, betont Yerushalmi. „Während sich neue Technologien und generative KI weiterentwickeln, bleiben wir ein zuverlässiger Partner in der digitalen Landschaft.“