La semaine dernière, OpenAI a lancé son GPT Store, permettant aux créateurs tiers de présenter et de monétiser des chatbots personnalisés (GPT). Cependant, les innovations de l'entreprise ne s'arrêtent pas là alors que janvier 2024 approche.
Lundi, OpenAI a publié un billet de blog décrivant de nouvelles mesures de protection pour ses outils d'IA, en se concentrant particulièrement sur son modèle de génération d'images, DALL-E, et sur les pratiques de citation dans ChatGPT. Cette initiative vise à lutter contre la désinformation avant les nombreuses élections prévues dans le monde cette année. « Protéger l'intégrité des élections nécessite la collaboration de chaque acteur du processus démocratique, et nous voulons nous assurer que notre technologie n'est pas utilisée de manière à compromettre ce processus », indique le blog.
Parmi les protections actuelles, une fonction de « signalement » permet aux utilisateurs de signaler d'éventuelles violations liées aux GPT personnalisés, y compris ceux imitant des individus ou institutions réels, ce qui enfreint les politiques d'utilisation d'OpenAI.
Nouvelles Mesures Anticipées
Le blog d'OpenAI révèle que les utilisateurs auront bientôt accès à des reportages d'actualité en temps réel à l'échelle mondiale, avec attribution et liens, renforçant ainsi la crédibilité des informations accessibles via ChatGPT. Cette amélioration s'inscrit dans les partenariats d'OpenAI avec des médias respectés tels que l'Associated Press et Axel Springer, qui héberge Politico et Business Insider.
Notamment, OpenAI mettra en œuvre des crédentials d'image de la Coalition for Content Provenance and Authenticity (C2PA). Cette initiative vise à appliquer un marquage numérique cryptographique aux contenus générés par l'IA, garantissant leur détectabilité à l'avenir. OpenAI prévoit d'intégrer les crédentials C2PA dans les images de DALL-E 3 au début de cette année, bien qu'une date précise n'ait pas encore été annoncée.
De plus, OpenAI a présenté son « classificateur de provenance », un outil conçu pour détecter les images générées par DALL-E. Mentionné pour la première fois lors du lancement de DALL-E 3 à l'automne 2023, cet outil permettra aux utilisateurs de télécharger des images pour déterminer leurs origines IA. « Nos tests internes ont révélé des résultats encourageants, même avec des images modifiées de manière classique », mentionne le blog. « Nous prévoyons de le déployer bientôt auprès de notre premier groupe de testeurs, y compris des journalistes, des plateformes et des chercheurs, pour obtenir des retours. »
Le Rôle de l'IA dans les Campagnes Politiques
Alors que des organisations politiques comme le Republican National Committee (RNC) aux États-Unis utilisent de plus en plus l'IA pour leur communication, y compris pour imiter leurs opposants, l'efficacité des mesures de protection d'OpenAI pour contenir les vagues anticipées de désinformation numérique reste incertaine. Néanmoins, OpenAI se positionne clairement en tant que défenseur de la vérité et de l'exactitude face aux préoccupations concernant l'utilisation abusive de ses outils.