Dans la série acclamée de HBO « Game of Thrones », l'avertissement « les marcheurs blancs arrivent » fait référence à une race menaçante de créatures de glace qui menacent l'humanité. De manière similaire, Ajay Amlani, président de la société d'authentification biométrique iProov, soutient que nous devrions considérer les deepfakes avec la même urgence.
« Les inquiétudes concernant les deepfakes ont augmenté ces dernières années », a expliqué Amlani. « Maintenant, l'hiver est là. » Selon une récente enquête d'iProov, 47 % des organisations ont été confrontées à des deepfakes, et 70 % estiment que les deepfakes générés par l'IA auront un impact significatif sur leurs opérations. Alarmant, seulement 62 % prennent cette menace au sérieux.
« C'est une véritable préoccupation », a déclaré Amlani. « On peut créer des individus entièrement fictifs qui ont l'apparence, la voix et les réactions de vrais gens. » Les deepfakes—avatars, voix et médias fabriqués de manière réaliste—ont rapidement progressé et sont souvent presque indiscernables de la réalité. Cette sophistication représente des risques sérieux pour les organisations et les gouvernements. Par exemple, un employé des finances a perdu 25 millions de dollars après avoir été trompé par un appel vidéo deepfake de son « directeur financier ». De plus, la société de cybersécurité KnowBe4 a révélé qu'un nouvel employé s'est avéré être un hacker nord-coréen ayant utilisé la technologie deepfake pour contourner les mesures de sécurité.
Amlani a noté des disparités régionales significatives dans les incidents de deepfakes : 51 % des organisations en Asie-Pacifique, 53 % en Europe, et 53 % en Amérique latine ont connu des deepfakes, comparé à seulement 34 % en Amérique du Nord. « De nombreux acteurs malveillants opèrent à l'international, ciblant souvent d'abord les régions locales », a-t-il ajouté.
L'enquête classe les deepfakes parmi les principales préoccupations en matière de sécurité, aux côtés des violations de mots de passe (64 %) et des ransomwares (63 %), avec à la fois la phishing/ingénierie sociale et les deepfakes touchant 61 % des répondants. « Faire confiance à quoi que ce soit de numérique devient de plus en plus difficile », a déclaré Amlani. « Il est crucial de remettre en question tout ce qui est en ligne et de bâtir des défenses solides pour vérifier les identités. »
Solutions biométriques contre les menaces de deepfake
L'augmentation des vitesses de traitement, le partage d'informations amélioré et l'IA générative ont permis aux acteurs de menace de créer des deepfakes sophistiqués. Bien que certaines mesures de base existent—comme les drapeaux de contenu sur les plateformes de partage vidéo—celles-ci sont insuffisantes, selon Amlani. « De telles tentatives effleurent à peine un problème de grande envergure », a-t-il commenté.
Les méthodes de vérification traditionnelles, comme les captchas, sont devenues trop complexes, rendant difficile la preuve d'identité même pour les utilisateurs légitimes, en particulier chez les personnes âgées ou ayant des troubles cognitifs. En revanche, Amlani recommande l'authentification biométrique comme une solution plus efficace.
La recherche d'iProov montre que 75 % des organisations adoptent la biométrie faciale comme première défense contre les deepfakes, suivie par l'authentification multifactorielle (67 %) et l'éducation sur les risques liés aux deepfakes (63 %). Les entreprises procèdent également à des audits de sécurité (57 %) et mettent à jour leurs systèmes (54 %) pour contrer les menaces de deepfake.
L’efficacité des diverses méthodes biométriques contre les deepfakes est la suivante :
- Empreinte digitale : 81 %
- Iris : 68 %
- Visage : 67 %
- Comportement avancé : 65 %
- Paume : 63 %
- Comportement de base : 50 %
- Voix : 48 %
Amlani a noté que tous les outils biométriques ne sont pas également efficaces. Certaines méthodes nécessitent des mouvements encombrants, facilitant la tâche des créateurs de deepfakes. En revanche, iProov utilise un outil alimenté par l'IA qui analyse les reflets lumineux de l'écran de l'appareil, scrutant les caractéristiques faciales uniques. Si les résultats diffèrent des motifs attendus, cela pourrait indiquer qu'un acteur malveillant essaie d'exploiter des images physiques ou des masques.
La technologie d'iProov est mise en œuvre dans les secteurs commercial et gouvernemental, et Amlani affirme qu'elle propose une « solution hautement sécurisée et rapide », avec un taux de réussite dépassant 98 %.
« Il y a une reconnaissance généralisée de la menace des deepfakes », a conclu Amlani. « Un effort mondial est essentiel pour lutter contre ce problème, car les acteurs malveillants agissent sans frontières. Il est temps de nous préparer pour ce défi. »