Dans un post aujourd'hui, Meta a annoncé ses plans pour identifier et étiqueter le contenu généré par l'IA sur Facebook, Instagram et Threads, bien qu'elle ait prévenu qu'il n'est "pas encore possible d'identifier tout le contenu généré par l'IA." Cette initiative fait suite à la récente propagation virale de deepfakes pornographiques de la chanteuse Taylor Swift sur Twitter, suscitant des réactions négatives de la part des fans, des législateurs et des médias internationaux. Elle intervient à un moment critique alors que Meta est soumis à un examen de plus en plus rigoureux concernant la gestion des images générées par l'IA et des vidéos manipulées à l'approche des élections américaines de 2024.
Nick Clegg, président des affaires mondiales de Meta, a précisé que "nous sommes encore au début de la diffusion de contenu généré par l’IA." Il a noté qu'avec la croissance de l'utilisation de l'IA, "la société s'engagera dans des débats pour identifier les contenus synthétiques et non synthétiques." Clegg a souligné que Meta continuera à surveiller les évolutions, à collaborer avec d'autres acteurs du secteur et à dialoguer avec les gouvernements et la société civile.
Les initiatives de Meta s'inscrivent dans les meilleures pratiques de l'industrie, comme en témoigne son partenariat avec le Partnership on AI (PAI) pour établir des normes d'identification du contenu généré par l'IA. La plateforme prévoit d'étiqueter les images téléchargées par les utilisateurs lorsqu'elle détecte des indicateurs standards de génération par IA. Depuis le lancement de son service d'images AI, les images photoréalistes créées avec Meta AI ont été étiquetées comme "Imagined with AI."
Clegg a souligné que les méthodes actuelles de Meta représentent l'avant-garde des capacités techniques. "Nous travaillons assidûment sur des classificateurs pour détecter automatiquement le contenu généré par l'IA, même sans marqueurs invisibles," a-t-il ajouté, tout en s'efforçant d'assurer que des filigranes invisibles ne puissent ni être supprimés ni altérés.
Cette annonce fait partie des efforts plus larges de Meta pour identifier et étiqueter efficacement le contenu généré par l'IA, en utilisant des techniques telles que les filigranes invisibles. En juillet 2023, sept entreprises technologiques se sont engagées à prendre des mesures concrètes pour améliorer la sécurité de l'IA, notamment en matière de filigranage, tandis que Google DeepMind a lancé une version bêta de SynthID, qui intègre des filigranes numériques imperceptibles directement dans les images.
Cependant, des experts mettent en garde que le filigranage numérique, qu'il soit visible ou caché, n'est pas infaillible. Un professeur en informatique de l'Université du Maryland a souligné : "Nous n'avons actuellement aucun système de filigranage fiable — nous avons réussi à briser tous les systèmes existants." Feizi et son équipe ont démontré à quel point il est facile pour des acteurs malveillants de retirer des filigranes ou d'en ajouter de faux à des images humaines, entraînant ainsi des contenus mal étiquetés.
Margaret Mitchell, scientifique en chef de l'éthique chez Hugging Face, a souligné que, bien que les filigranes invisibles ne constituent pas une solution définitive pour identifier le contenu généré par l'IA, ils représentent des outils précieux pour les créateurs légitimes cherchant une forme d'étiquette de "nutrition" pour le contenu lié à l'IA. Elle a mis en exergue l'importance de comprendre la provenance du contenu : "Connaitre l’origine de la création du contenu et son évolution est essentiel pour suivre le consentement, le crédit et la compensation."
Mitchell a exprimé son enthousiasme pour le potentiel des technologies de filigranage, reconnaissant que bien qu'il existe des lacunes dans l'IA, la technologie globale offre des perspectives prometteuses. "Il est essentiel de garder à l'esprit le tableau d'ensemble au milieu des récentes discussions sur les capacités de l'IA," a-t-elle conclu.