Si vous avez consulté X, la plateforme de médias sociaux anciennement connue sous le nom de Twitter, au cours des dernières 24 à 48 heures, vous avez probablement rencontré des images et des vidéos deepfake générées par IA mettant en scène Taylor Swift. Ces images explicites la montraient dans des scénarios non consensuels avec des fans de son petit ami, le joueur de la NFL Travis Kelce, qui évolue avec les Kansas City Chiefs.
Cette imagerie non consensuelle a suscité l'indignation chez les fans de Swift, le hashtag #ProtectTaylorSwift ayant été largement utilisé aux côtés de "Taylor Swift AI", alors que les médias du monde entier rapportaient l'incident. Pendant ce temps, X a eu du mal à supprimer le contenu et à empêcher sa republication, semblable à un jeu de "whac-a-mole".
La situation a ravivé les discussions parmi les législateurs américains sur la nécessité de réguler le marché de l'IA générative en rapide évolution. Toutefois, des questions fondamentales demeurent quant à la façon de mettre en œuvre ces régulations sans étouffer l'innovation ou enfreindre les droits du Premier Amendement, qui protègent la parodie, l'art de fans et d'autres formes d'expression impliquant des figures publiques.
Quels Outils Ont Été Utilisés Pour Créer les Deepfakes de Swift ?
Il reste flou quel outil d'IA spécifique a été utilisé pour générer les deepfakes de Swift. Les plateformes de premier plan comme Midjourney et DALL-E 3 d'OpenAI interdisent strictement la création de contenus explicites ou suggestifs. D'après Newsweek, le compte @Zvbear sur X a revendiqué la responsabilité de la publication de certains deepfakes, avant de rendre son compte privé.
Des enquêtes menées par le média technologique indépendant 404 Media ont retracé les images jusqu'à un groupe sur Telegram qui aurait utilisé "les outils d'IA de Microsoft", en particulier Microsoft Designer, alimenté par DALL-E 3, qui possède des restrictions de contenu similaires.
Malgré des politiques strictes, le modèle d'IA open source Stable Diffusion de Stability AI permet aux utilisateurs de créer divers contenus, y compris des matériaux à caractère sexuel explicite. Cette flexibilité suscite des inquiétudes, car des plateformes comme Civitai ont été signalées pour avoir facilité la création d'images d'IA non consensuelles. Bien que Civitai ait annoncé des efforts pour combattre cet abus, elle n'est pas liée aux deepfakes de Swift.
L'utilisation de Stable Diffusion sur Clipdrop interdit également le contenu explicite. Pourtant, les utilisateurs ont trouvé de manière persistante des moyens de contourner ces protections, entraînant l'afflux récent d'images deepfake de Swift.
Même au milieu de l'acceptation croissante de l'IA pour des projets créatifs consensuels—comme la série True Detective: Night Country d'HBO—l'utilisation abusive de la technologie à des fins néfastes pourrait ternir son image publique et entraîner des régulations plus strictes.
Actions Légales Potentielles
Un rapport du Daily Mail indique que Taylor Swift est "furieuse" au sujet de la diffusion des images explicites et envisage des poursuites. Il demeure incertain si cette action ciblera la plateforme Celeb Jihad qui a hébergé les images, les outils d'IA facilitant leur création, ou les responsables de leur production.
Cet incident a accentué les préoccupations concernant les outils d'IA générative et leur potentiel à créer des images nuisibles représentant des individus réels, suscitant des demandes auprès des législateurs américains pour des régulations plus strictes.
Tom Kean, Jr., un représentant républicain du New Jersey, a récemment introduit deux projets de loi : le AI Labeling Act et le Preventing Deepfakes of Intimate Images Act. Ces propositions visent à renforcer la régulation dans le domaine de l'IA.
Le AI Labeling Act obligerait les contenus générés par IA à inclure un avis clair indiquant leur création artificielle, bien que l'efficacité de ce signalement pour prévenir la diffusion de contenu explicite soit discutable. Meta et OpenAI ont déjà mis en œuvre des mesures similaires pour informer les utilisateurs concernant les images générées par IA.
Le second projet de loi, co-parrainé par le démocrate Joe Morelle, vise à modifier la Violence Against Women Act. Il donnerait aux victimes de deepfakes non consensuels le droit de poursuivre en justice les créateurs et les plateformes, pouvant entraîner des dommages-intérêts de 150 000 dollars et des peines d'emprisonnement de jusqu'à 10 ans pour les contrevenants.
Bien que ces projets de loi ne puissent pas directement aider Swift dans son affaire, ils pourraient ouvrir la voie à de meilleures protections pour les futures victimes de deepfakes générés par IA.
Pour que ces deux projets de loi deviennent loi, ils doivent passer par les comités concernés, être soumis à un vote de la Chambre des représentants, et adopter un projet de loi correspondant au Sénat. Actuellement, les deux projets en sont à la phase d'introduction.
Déclaration du Représentant Kean sur l'Incident
En réponse à l'incident du deepfake, le représentant Kean a déclaré : "La technologie de l'IA avance plus vite que les garde-fous nécessaires. Que la victime soit Taylor Swift ou tout jeune dans notre pays, nous devons établir des mesures de protection pour lutter contre cette tendance alarmante. Mon projet de loi, le AI Labeling Act, serait un pas en avant significatif."
Cet incident, avec d'autres occurrences similaires, souligne le besoin urgent d'actions législatives pour aborder les préoccupations croissantes entourant le contenu généré par l'IA et ses implications sur la vie privée et la sécurité personnelle.