Microsoft s'est associé à StopNCII pour lutter contre la diffusion d'images intimes non consensuelles, y compris les deepfakes, sur son moteur de recherche Bing. Les victimes peuvent ouvrir un "dossier" auprès de StopNCII, qui crée une empreinte numérique, ou "hash", de l'image ou de la vidéo intime stockée sur leur appareil, sans avoir à télécharger le fichier. Ce hash est ensuite partagé avec des partenaires industriels associés, qui l'utilisent pour identifier et supprimer le contenu correspondant qui enfreint leurs politiques. Ce processus s'applique également aux deepfakes générés par l'IA de véritables personnes.
Plusieurs entreprises technologiques ont uni leurs forces avec StopNCII pour éliminer les images intimes partagées sans consentement. Meta, le créateur de l'outil, l'emploie sur ses plateformes, y compris Facebook, Instagram et Threads. D'autres collaborateurs incluent TikTok, Bumble, Reddit, Snap, Niantic, OnlyFans, PornHub, Playhouse et Redgifs. Notamment, Google est absent de cette liste. Bien que Google propose ses propres outils de signalement pour les images non consensuelles, y compris les deepfakes, son exclusion de cette initiative centralisée impose une responsabilité supplémentaire aux victimes, les obligeant à naviguer dans un patchwork d'options pour récupérer leur vie privée.
En plus des efforts du secteur privé, le gouvernement américain a agi cette année pour traiter les problèmes liés aux images non consensuelles, en particulier les deepfakes. Le Bureau des droits d'auteur des États-Unis a appelé à de nouvelles législations, tandis qu'un groupe de sénateurs a introduit le NO FAKES Act en juillet pour protéger les victimes.
Si vous pensez être victime du partage d'images intimes non consensuelles, vous pouvez ouvrir un dossier avec StopNCII et Google. Si vous avez moins de 18 ans, vous pouvez déposer un rapport auprès du NCMEC.