Les Risques des Deepfakes en Forte Hausse : Une Menace Urgente pour les Entreprises
La technologie des deepfakes émerge rapidement comme l'une des formes d'IA adversaire les plus redoutables, avec des pertes projetées passant de 12,3 milliards de dollars en 2023 à 40 milliards de dollars d'ici 2027—un impressionnant taux de croissance annuel composé de 32%. Selon Deloitte, la prolifération des deepfakes est particulièrement inquiétante dans les secteurs bancaire et des services financiers.
Rien qu'au cours de la dernière année, les deepfakes ont augmenté de manière incroyable de 3 000 %, et les incidents devraient grimper de 50 % à 60 % en 2024, atteignant un total de 140 000 à 150 000 cas dans le monde cette année. La dernière génération d'applications d'IA générative permet aux attaquants de créer rapidement et à faible coût des vidéos deepfake convaincantes, des voix imitantes et des documents frauduleux. Le rapport Pindrop 2024 sur l'intelligence vocale et la sécurité estime que la fraude par deepfake ciblant les centres de contact coûte aux entreprises environ 5 milliards de dollars par an, renforçant ainsi la menace de cette technologie pour la banque et la finance.
Bloomberg a signalé l’existence d’un marché noir florissant sur le dark web, où des logiciels de fraude sont vendus à des prix allant de 20 dollars à plusieurs milliers. Une infographie basée sur le rapport sur la fraude d’identité Sumsub 2023 illustre l’augmentation alarmante de la fraude alimentée par l'IA à l'échelle mondiale.
Préparation des Entreprises : Une Préoccupation Croissante
Alors que l'IA adversaire évolue, elle introduit des vecteurs d'attaque imprévus qui compliquent le paysage de la sécurité. De manière alarmante, une entreprise sur trois n'a pas de stratégie pour lutter contre les risques associés aux deepfakes, en particulier ceux visant leurs dirigeants clés. Le rapport Ivanti 2024 sur l'état de la cybersécurité révèle que 30 % des organisations n'ont aucun plan pour identifier ou se défendre contre les attaques d'IA adversaire.
Le rapport montre que 74 % des entreprises interrogées constatent déjà des menaces alimentées par l'IA, et 89 % estiment que ces menaces ne font que commencer. De plus, 60 % des CISOs, CIOs et responsables IT se sentent mal préparés à faire face à de telles attaques. L'utilisation de deepfakes dans le cadre de stratégies plus larges, incluant le phishing et le ransomware, devient de plus en plus courante, indiquant un glissement vers des scénarios de menace plus sophistiqués alimentés par l'IA générative.
Ciblage des Dirigeants : Une Nouvelle Stratégie pour les Attaquants
Les experts en cybersécurité rapportent une tendance inquiétante : les deepfakes évoluent d'imitations facilement détectables à des impersonnations réalistes, ciblant en particulier les PDG. Des dirigeants de l'industrie notent que des acteurs étatiques agressifs et de grandes organisations criminelles investissent des ressources dans les technologies de réseaux antagonistes génératifs (GAN). La sophistication de ces attaques a été mise en lumière par un incident notable visant le PDG de la plus grande entreprise de publicité au monde.
Dans une récente conversation avec le Wall Street Journal, le PDG de CrowdStrike, George Kurtz, a discuté de la manière dont les avancées en IA renforcent à la fois les défenses en cybersécurité et les capacités des attaquants. Il a observé que la technologie des deepfakes est tellement avancée qu'il est difficile de distinguer l'authenticité. En déclarant : « La technologie des deepfakes aujourd'hui est si bonne », Kurtz a souligné les risques posés par les campagnes de désinformation orchestrées par des États.
L'équipe de renseignement de CrowdStrike étudie activement ce qui rend les deepfakes convaincants, cherchant à comprendre la trajectoire de cette technologie pour maximiser son impact auprès des spectateurs. Kurtz a comparé la diffusion d'informations à un caillou créant des ondulations dans un étang, où les sujets importants amplifient et affectent la perception publique.
Un Appel à l'Action pour les Entreprises
Les entreprises courent le risque de perdre la bataille contre l'IA adversaire si elles n'arrivent pas à suivre l'évolution rapide des attaquants dans l’utilisation de l’IA pour des attaques par deepfake. Avec l'utilisation croissante des deepfakes, le Département de la Sécurité intérieure a publié un guide intitulé « Augmentation des Menaces des Identités Deepfake », soulignant l'urgence pour les entreprises de renforcer leurs défenses.
Il est crucial pour les organisations de développer des stratégies proactives pour atténuer les risques posés par la technologie des deepfakes et rester en avance dans cette guerre d'IA en cours.