Lorsque des deepfakes sexuels explicites de Taylor Swift sont devenus viraux sur X (anciennement Twitter), des millions de ses fans se sont mobilisés sous le hashtag #ProtectTaylorSwift. Bien que leurs efforts aient permis de minimiser le contenu offensant, cet incident a néanmoins suscité une large attention médiatique, ouvrant un dialogue important sur les dangers de la technologie deepfake. La porte-parole de la Maison Blanche, Karine Jean-Pierre, a même appelé à des mesures législatives pour protéger les individus des contenus nuisibles générés par l'IA.
Si l'incident concernant Swift a été choquant, il n'est pas isolé. Les célébrités et influenceurs sont de plus en plus victimes de deepfakes ces dernières années, et à mesure que la technologie de l'IA évolue, le risque de préjudice réputationnel ne cessera d'augmenter.
Les agents IA et la montée des deepfakes
« Avec une simple vidéo de vous, vous pouvez créer un nouveau clip avec des dialogues basés sur un script. Si cela peut être divertissant, cela signifie également que n'importe qui peut générer du contenu trompeur, risquant ainsi des dommages à sa réputation », explique Nicos Vekiarides, PDG d'Attestiv, une entreprise spécialisée dans les outils de validation photo et vidéo.
Alors que les outils d'IA pour créer du contenu deepfake deviennent plus accessibles et sophistiqués, le paysage en ligne regorge d'images et de vidéos fallacieuses. Cela soulève une question cruciale : comment les individus peuvent-ils faire la distinction entre la réalité et la manipulation ?
Comprendre les implications des deepfakes
Les deepfakes sont des images, vidéos ou audios artificiels réalistes créés à l'aide de la technologie d'apprentissage profond. Bien que ces manipulations existent depuis plusieurs années, elles ont gagné en notoriété fin 2017 lorsqu'un utilisateur de Reddit, sous le pseudonyme ‘deepfake’, a commencé à partager du contenu pornographique généré par l’IA. Dépendantes des technologies complexes de remplacement de visage, les avancées récentes ont démocratisé cette capacité, permettant à presque tout le monde de créer des manipulations convaincantes de figures publiques via des plateformes comme DALL-E, Midjourney, Adobe Firefly et Stable Diffusion.
L'essor de l'IA générative a permis à des acteurs malveillants d'exploiter même de petites failles technologiques ; par exemple, le site technologique indépendant 404 Media a révélé que les deepfakes de Taylor Swift avaient été créés en contournant les protections des outils d'IA de Microsoft. Des technologies similaires ont été utilisées pour créer des images trompeuses du Pape François et des audios imitant des personnalités politiques comme le Président Biden.
Les dangers d'un accès facilité
L'accessibilité de la technologie deepfake représente des risques considérables, menaçant les réputations des figures publiques, trompant les électeurs et facilitant la fraude financière. Steve Grobman, CTO de McAfee, signale une tendance inquiétante où les escrocs combinent des vidéos authentiques avec des audios falsifiés, utilisant des imitations de célébrités telles que Swift pour induire le public en erreur.
Selon le rapport sur la fraude par identité de Sumsub, le nombre de deepfakes détectés dans le monde a été multiplié par dix en 2023, le secteur des cryptomonnaies étant le plus touché avec 88 %, suivi du fintech à 8 %.
Les inquiétudes du public s'intensifient
L'inquiétude du public concernant les deepfakes est palpable. Une enquête de McAfee en 2023 a révélé que 84 % des Américains craignent un usage abusif de la technologie deepfake en 2024, plus d'un tiers rapportant des expériences personnelles liées aux escroqueries deepfake.
À mesure que la technologie de l'IA continue de mûrir, il devient de plus en plus difficile de distinguer le contenu réel des médias manipulés. Pavel Goldman-Kalaydin, responsable de l'IA et du ML chez Sumsub, avertit que les avancées technologiques, initialement perçues comme bénéfiques, constituent désormais des menaces pour l'intégrité de l'information et la sécurité personnelle.
Détecter les deepfakes
Alors que les gouvernements et les organisations s'efforcent de lutter contre la prolifération des deepfakes, la capacité à différencier le contenu authentique du faux est impérative. Les experts suggèrent deux méthodes principales pour détecter les deepfakes : analyser le contenu à la recherche de subtils écarts et vérifier l'authenticité de la source.
Actuellement, les images générées par l'IA peuvent être remarquablement réalistes, tandis que les vidéos générées par l'IA s'améliorent rapidement. Cependant, des incohérences peuvent souvent révéler leur nature artificielle, comme des mouvements de mains peu naturels, des arrière-plans déformés, un mauvais éclairage et des artefacts numériques. Vekiarides souligne l'importance d'examiner des détails comme l'absence d'ombres ou des traits de visage trop symétriques comme indicateurs potentiels de manipulation.
Ces méthodes de détection pourraient devenir plus difficiles à mesure que la technologie avance, nécessitant une approche vigilante lors de l'engagement avec des médias douteux. Rouif conseille aux utilisateurs d'évaluer l'intention derrière le contenu et de considérer les biais potentiels de la source.
Pour faciliter les efforts de vérification, des entreprises technologiques développent des solutions de détection avancées. Google, ElevenLabs et McAfee explorent des méthodes pour identifier le contenu généré par l'IA, McAfee rapportant un taux de précision de 90 % dans la détection de l'audio malveillant.
Dans un paysage de plus en plus saturé de médias trompeurs, comprendre les implications et les risques des deepfakes est essentiel. Rester informé et sceptique peut permettre au public de naviguer dans cet environnement numérique complexe.