Google renforce la transparence concernant le contenu créé ou modifié avec des outils d'intelligence artificielle générative (IAG). En tant que membre de la Coalition pour la provenance et l'authenticité du contenu (C2PA), Google s'apprête à mettre en œuvre le standard de filigrane numérique du groupe. En collaboration avec des leaders du secteur tels qu'Amazon, Meta et OpenAI, Google a passé des mois à perfectionner la technologie de marquage du contenu généré par l'IA.
La dernière version des Informations sur le contenu, qui protège les métadonnées détaillant la création et les modifications de contenu, présente une sécurité et une résistance à la falsification améliorées grâce à des méthodes de validation renforcées. Dans les mois à venir, Google prévoit d'intégrer ce standard mis à jour dans ses produits principaux, rendant ainsi plus facile l'identification des images influencées par l'IA dans les résultats de recherche Google. Si une image contient des métadonnées C2PA, les utilisateurs pourront bientôt explorer son impact d'IA via l'outil "À propos de cette image", disponible dans Google Images, Lens et Circle to Search.
De plus, Google examine l'application de la C2PA sur YouTube, avec l'objectif d'informer les spectateurs lorsque des séquences ont été capturées avec une caméra. Plus de détails sur cette initiative sont attendus plus tard cette année. Google prévoit également d'incorporer les métadonnées C2PA au sein de ses systèmes publicitaires, bien que des détails spécifiques sur la mise en œuvre soient encore limités. La société a mentionné que les signaux C2PA aideraient à appliquer progressivement des politiques clés.
Cependant, l'efficacité de ce système dépend de la coopération des fabricants de caméras et des développeurs d'outils d'IAG pour adopter le standard de marquage C2PA. Il est important de noter que le système ne peut pas empêcher la suppression des métadonnées des images, ce qui pourrait compliquer la détection de l'utilisation de l'IA par Google.
Parallèlement, Meta a affiné son approche concernant la divulgation du contenu généré par l'IA sur ses plateformes, y compris Facebook, Instagram et Threads. Récemment, Meta a mis à jour sa politique pour réduire la visibilité des étiquettes sur les images modifiées avec des outils d'IA. À partir de cette semaine, si les métadonnées C2PA indiquent qu'une image a été ajustée à l'aide des fonctionnalités d'IA de Photoshop, l'étiquette "Infos AI" sera moins visible, apparaissant dans le menu du post plutôt que de façon proéminente sur l'image elle-même.