Dans l'histoire récente, la technologie n'a jamais constitué une menace aussi grande pour la société que les deepfakes. Ce contenu manipulateur, généré par l'IA, est déjà utilisé comme arme dans le domaine politique et devrait dominer les élections présidentielles américaines à venir, ainsi que les courses au Sénat et à la Chambre des représentants. Alors que les régulateurs peinent à contrôler cette technologie, des deepfakes d'une réalisme incroyable sont employés pour salir des candidats, influencer l'opinion publique et manipuler la participation électorale. En revanche, certains candidats tentent de tirer parti de l'IA générative pour améliorer leurs campagnes, souvent avec des résultats désastreux.
Le professeur Hany Farid de l'École d'Information de l'Université de Californie, Berkeley, a pris des mesures. Il a lancé un projet pour surveiller les deepfakes tout au long de la campagne présidentielle de 2024. "Mon espoir est qu'en mettant en lumière ce contenu, nous sensibilisions les médias et le public — et signalions à ceux qui créent ce contenu que nous veillons et que nous vous retrouverons," a déclaré Farid.
Dans un exemple notable, le site de Farid présente des images du président Joe Biden en tenue militaire dans un centre de commandement. Le site souligne les incohérences, telles que des souris d'ordinateur mal placées et un design de plafond déformé, qui révèlent que les images sont manipulées.
La recherche de Farid aborde également des robocalls deepfake infâmes se faisant passer pour Biden avant les primaires du New Hampshire. Ces appels incitaient les citoyens à ne pas voter, déclarant : "Voter ce mardi n'aide que les républicains dans leur quête pour réélire l'ancien président Donald Trump." L'origine des appels reste floue, mais la qualité vocale semble basse et étrange.
Dans un autre post, un deepfake de Ron DeSantis affirme faussement : "Je n'aurais jamais dû défier le président Trump, le plus grand président de ma vie." Le site critique également un montage de Trump avec l'ancien conseiller médical en chef Anthony Fauci, notant des incohérences flagrantes comme un logo de la Maison Blanche ridicule et des éléments déformés sur le drapeau américain.
Farid observe que même de légers changements dans le sentiment des électeurs peuvent faire basculer une élection, en particulier dans les États clés.
L'ampleur des deepfakes s'étend, avec des exemples de plus en plus sophistiqués représentant Trump dans des scénarios d'arrestation, le président ukrainien Zelensky appelant les soldats à se rendre, et la vice-présidente Kamala Harris semblant ivre lors d'un événement public. Ces outils manipulateurs ont déjà influencé des élections dans des pays comme la Turquie et le Bangladesh, tandis que certains politiciens, comme le représentant Dean Phillips du Minnesota et le maire de Miami Francis Suarez, ont utilisé des deepfakes pour mobiliser les électeurs.
"J'ai observé une augmentation tant de la sophistication que de l'utilisation abusive des deepfakes," souligne Farid. "Cette année semble être un tournant, avec des milliards d'électeurs prêts à voter dans le monde entier et une avancée rapide de la technologie."
Le danger va au-delà de la manipulation des électeurs, car les deepfakes peuvent également servir d'excuses pour des comportements illégaux ou inappropriés. Ce phénomène, désigné par le terme "Liar's Dividend", a déjà été exploité par des figures comme Trump et Elon Musk. "Quand tout peut être falsifié, rien n'a besoin d'être réel," souligne Farid.
Des recherches indiquent que les humains peuvent discerner des vidéos deepfake juste plus de 50 % du temps et détecter de l'audio truqué à 73 % du temps. Alors que la technologie devient remarquablement réaliste, la propagation de contenu falsifié sur les réseaux sociaux peut rapidement engendrer de la désinformation.
"Il y a un an, les deepfakes étaient principalement basés sur des images et assez évidents," se souvient Farid. "Aujourd'hui, nous voyons des deepfakes audio et vidéo sophistiqués qui peuvent facilement induire en erreur les spectateurs."
Bien qu'il soit difficile d’identifier des signes d'alerte cohérents, Farid déconseille de s'appuyer sur les réseaux sociaux pour s'informer. "Si vous devez utiliser les réseaux sociaux, ralentissez, réfléchissez de manière critique avant de partager et reconnaissez vos biais. Partager de fausses informations ne fait qu'aggraver le problème."
Pour ceux qui recherchent des conseils pratiques, le projet Detect Fakes de l'Université Northwestern propose un test pour évaluer les compétences de détection, et le MIT Media Lab fournit des recommandations, notamment :
- Concentrez-vous sur les visages, car les manipulations de haute qualité impliquent presque toujours des altérations faciales.
- Surveillez les incohérences cutanées, telles que des joues et des fronts trop lisses ou ridés, qui peuvent sembler déconnectés des textures des cheveux et des yeux.
- Analysez les ombres et les effets d'éclairage qui ne s'alignent pas avec la physique.
- Vérifiez l'éclat exagéré sur des lunettes qui ne change pas avec le mouvement.
- Examinez la pilosité faciale pour déceler des ajouts ou des retraits artificiels.
- Surveillez les patterns de clignement et le mouvement des lèvres, car de nombreux deepfakes reposent sur le synchronisme des lèvres.
Si vous suspectez un deepfake lié aux élections américaines, envisagez de contacter Farid pour une enquête plus approfondie.