Ces dernières années, l'avancement rapide des technologies d'IA a entraîné une explosion de contenu généré par l'IA, y compris des images, vidéos et textes hyper-réalistes. Toutefois, cette montée en puissance a également soulevé d'importantes préoccupations concernant la désinformation et la tromperie, rendant difficile la distinction entre réalité et fabrication.
L'inquiétude face à l'envahissement de contenu synthétique est justifiée. Depuis 2022, les utilisateurs d'IA ont collectivement créé plus de 15 milliards d'images. Pour mettre cela en perspective, ce chiffre incroyable représente ce qu'il a fallu à l'humanité 150 ans à produire avant 2022.
Le volume de contenu généré par l'IA pose des défis que nous commençons à peine à comprendre. Les historiens pourraient bientôt considérer Internet après 2023 comme fondamentalement différent de ce qui l'a précédé, à l'instar de l'impact de l'atome sur la datation au carbone. De plus en plus, les recherches d'images sur Google aboutissent à des résultats générés par l'IA, et des cas allégués de crimes de guerre dans le conflit Israël/Gaza sont parfois mal identifiés comme des créations de l'IA.
Signature des contenus d'IA
Les deepfakes, réalisés grâce à des algorithmes d'apprentissage automatique, produisent des contenus contrefaits imitant les expressions et voix humaines. La récente présentation de Sora, le modèle texte-à-vidéo d'OpenAI, souligne la rapidité avec laquelle la réalité virtuelle devient indistincte de la réalité physique. Face à ces inquiétudes croissantes, les entreprises technologiques intensifient leurs efforts pour atténuer les abus potentiels liés au contenu généré par l'IA.
En février, Meta a lancé des initiatives pour étiqueter les images créées avec ses outils d'IA sur des plateformes comme Facebook, Instagram et Threads, incluant des marqueurs visibles, des filigranes invisibles et des métadonnées détaillées pour indiquer leur origine artificielle. En réponse, Google et OpenAI ont annoncé des mesures similaires pour intégrer des « signatures » au sein du contenu généré par l'IA.
Ces initiatives sont soutenues par la Coalition for Content Provenance and Authenticity (C2PA), visant à retracer l'origine des fichiers numériques et à faire la distinction entre contenu authentique et manipulé. Bien que ces efforts favorisent la transparence et la responsabilité, la question demeure : sont-ils suffisants pour préserver contre les abus potentiels de cette technologie en évolution ?
Qui définit la réalité ?
Un enjeu critique se pose avec la mise en place d'outils de détection : peuvent-ils être efficaces universellement sans être détournés par ceux qui y ont accès ? Cela soulève une question pressante : qui a l'autorité de définir la réalité ? Comprendre cela est essentiel avant de pouvoir aborder réellement le potentiel du contenu généré par l'IA.
Le Baromètre de confiance Edelman 2023 révèle un scepticisme public significatif concernant la gestion des innovations technologiques par les institutions. Le rapport indique qu'à l'échelle mondiale, les gens sont presque deux fois plus susceptibles de croire que l'innovation est mal gérée (39 %) plutôt que bien gérée (22 %). Beaucoup expriment des préoccupations quant au rythme du changement technologique et à ses implications pour la société.
Ce scepticisme est aggravé par l'observation que, à mesure que les contre-mesures s'améliorent, les défis auxquels elles s'attaquent évoluent également. Restaurer la confiance du public dans l'innovation technologique est crucial si nous souhaitons que les mesures de filigrane soient efficaces.
Besoin de transparence dans la technologie
Récemment, une vidéo mettant en vedette le CTO d'OpenAI, Mira Murati, est devenue virale après qu'elle n'ait pu spécifier les données utilisées pour former Sora. Étant donné l'importance de la qualité des données, il est préoccupant qu'un CTO ne puisse pas clarifier les données d'entraînement. Son rejet des questions de suivi a soulevé d'autres drapeaux rouges, suggérant que la transparence doit être une priorité dans l'industrie technologique.
Pour l'avenir, établir des normes de transparence et de cohérence est impératif. L'éducation du public sur les outils d'IA, des pratiques d'étiquetage claires et une responsabilité face aux erreurs sont des éléments essentiels pour favoriser un environnement de confiance. La communication sur les problèmes qui surgissent est tout aussi essentielle.
Sans ces mesures, le filigrane pourrait ne servir que de solution superficielle, échouant à aborder les défis fondamentaux de la désinformation et de la diminution de la confiance dans le contenu artificiel. Comme le montrent les événements actuels, les interférences électorales par deepfake émergent déjà comme un problème significatif dans le monde de l'IA générative. Avec une grande partie de la population mondiale se rendant aux urnes, il est vital de s'attaquer à ce problème pour l'avenir de l'authenticité du contenu.