McAfee Dévoile le Projet Mockingbird : Un Bouclier Contre les Arnaques Audio Deepfake Générées par l'IA
Face à la menace croissante des arnaques alimentées par l'IA, McAfee a lancé le Projet Mockingbird, une technologie de détection d'audio deepfake propulsée par l'IA, conçue pour protéger les consommateurs contre les cybercriminels manipulant l'audio pour diffuser de la désinformation et réaliser des escroqueries.
Présenté lors du CES 2024, le salon technologique de premier plan à Las Vegas, le Projet Mockingbird vise à défendre les utilisateurs contre les audios deepfake trompeurs susceptibles de fausser la perception publique. Comme l'a expliqué le CTO de McAfee, Steve Grobman, les arnaques deepfake mettent souvent en avant des orateurs reconnaissables, comme des présentateurs de nouvelles, dont la voix est altérée pour dire des choses qu'ils n'ont jamais exprimées.
"McAfee s'est toujours engagé à protéger les consommateurs des menaces numériques. Avec l'avènement de l'IA générative, nous constatons un changement significatif, les cybercriminels exploitant ces technologies pour orchestrer divers types d'escroqueries," a déclaré Grobman.
À l'approche de la saison électorale, les préoccupations concernant le rôle de l'IA générative dans les campagnes de désinformation se renforcent. McAfee s'engage à améliorer sa technologie pour garantir que ses clients puissent distinguer les vidéos authentiques des vidéos manipulées. Ce défi est particulièrement aigu étant donné le potentiel des deepfakes à se mélanger avec d'autres contenus piratés, compliquant les efforts de discernement.
Grobman a donné un exemple impliquant Insomniac Games, où des hackers ont divulgué des données privées. Un audio deepfake pourrait être intégré sans effort dans des séquences réelles piratées, augmentant ainsi l'ambiguïté pour les consommateurs.
Le Projet Mockingbird utilise des techniques d'IA sophistiquées pour déterminer si des pistes audio appartiennent réellement à la personne censée parler. En analysant les mots prononcés, cette technologie répond à la tendance alarmante de l'IA générative qui crée des audios deepfake convaincants. Bien que les vidéos deepfake aient attiré l'attention, Grobman souligne que la nature insidieuse de la tromperie audio représente un nouveau défi, surtout à mesure que de tels contenus audio falsifiés se multiplient sur les réseaux sociaux.
L'essor de la technologie IA a permis aux cybercriminels de créer du contenu trompeur, aboutissant à des arnaques exploitant des audios et vidéos manipulés. Ces tactiques vont de l'imitation de proches par clonage vocal à l'altération de vidéos authentiques avec de faux audios, compliquant la capacité des consommateurs à évaluer l'authenticité.
Répondant à ce besoin urgent de clarté, McAfee Labs a développé un modèle d'IA avancé capable de détecter l'audio généré par l'IA avec plus de 90 % de précision. Ce modèle combine des techniques de détection contextuelles, comportementales et catégorielles pour protéger efficacement les utilisateurs.
"Cette technologie est essentielle pour permettre aux utilisateurs de naviguer dans leurs interactions numériques avec confiance, surtout alors que les arnaques générées par l'IA se multiplient," a affirmé Grobman. "En utilisant nos capacités de détection d'audio deepfake, nous aiderons les consommateurs à discerner rapidement le contenu réel des tentatives frauduleuses, renforçant ainsi leur capacité à protéger leur vie privée et leur identité."
Lors du CES 2024, McAfee a démontré le Projet Mockingbird, mettant en avant ses capacités auprès des participants. Cette initiative souligne l'engagement de l'entreprise à offrir un portefeuille robuste de modèles d'IA conçus pour protéger les consommateurs contre les menaces numériques.
S'inspirant du comportement des moqueurs, connus pour imiter des sons, McAfee établit un parallèle entre ces oiseaux et les cybercriminels qui reproduisent des voix pour tromper les consommateurs.
Une enquête menée en décembre 2023 par McAfee révèle une préoccupation généralisée concernant la technologie deepfake. Près de 68 % des répondants ont exprimé une anxiété accrue face aux deepfakes par rapport à l'année précédente, avec 33 % reconnaissant leur familiarité avec les arnaques deepfake. Les principales préoccupations incluent le risque d'interférence électorale, le cyberharcèlement et l'imitation de figures publiques.
"À l'approche d'un cycle électoral critique, il est légitime de craindre que la technologie deepfake puisse influencer le discours public," a noté Grobman. "Notre IA identifie des caractéristiques subtiles qui peuvent être invisibles à l'œil humain, permettant aux consommateurs de différencier le contenu authentique du contenu manipulé."
La technologie de détection de McAfee analyse les données vidéo brutes et utilise des modèles d'apprentissage automatique pour déterminer si le contenu est légitime. Ce système, auparavant utilisé pour la détection de malware, s'adapte pour identifier les audios et vidéos profondément altérés, renforçant la sécurité des consommateurs.
Pour naviguer dans un paysage numérique de plus en plus complexe, Grobman a souligné l'importance du scepticisme et de l'éducation des consommateurs concernant les technologies deepfake. "Nous voulons que les consommateurs soient conscients que si quelque chose semble suspect, cela pourrait être généré par une IA. Notre objectif est de fournir une technologie de confiance pour les aider à identifier le contenu trompeur et garantir des expériences numériques sûres."
Le Projet Mockingbird représente la réponse proactive de McAfee à la menace croissante de la manipulation améliorée par l'IA, évoluant d'une phase expérimentale en un élément clé de ses offres de produits.