Quelques jours après avoir présenté des démonstrations photoréalistes impressionnantes de son nouveau modèle de génération vidéo par intelligence artificielle, Sora, OpenAI a subi un important revers.
Le 20 février 2024, ChatGPT a commencé à produire des résultats incohérents et confus, incitant les utilisateurs à exprimer leurs frustrations sur X (anciennement Twitter). Certaines réponses montraient des sorties de ChatGPT qui mêlaient bizarrement anglais et espagnol, créant des phrases incompréhensibles, truffées de mots inventés et de répétitions, s'écartant des demandes des utilisateurs.
Un utilisateur attentif a comparé ces chaînes de mots aléatoires aux étranges graffitis extraterrestres du roman "Annihilation" de Jeff VanderMeer, publié en 2014. Cette comparaison a résonné chez les lecteurs, qui ont perçu une qualité troublante et inhumaine dans ces incohérences.
Alors que certains utilisateurs ont humoristiquement évoqué un potentiel "soulèvement des robots", à l'image des récits de science-fiction des franchises comme Terminator et The Matrix, d'autres ont minimisé ces événements comme de simples bugs. Beaucoup ont averti que de telles erreurs remettaient en question la crédibilité des outils d'IA générative dans des tâches d'écriture et de codage.
À 15h40 PST le 20 février, OpenAI a reconnu le problème sur son tableau de statut public. Peu après, à 15h47 PST, la société a annoncé avoir identifié le problème et être en train de le résoudre. Vers 17h, ils ont confirmé qu'ils continuaient à surveiller la situation.
Le lendemain, à 10h30 PST, le compte vérifié de ChatGPT sur X a rassuré les utilisateurs : "On a un peu déraillé hier mais tout devrait être de nouveau opérationnel !" Plus tard, le compte ChatGPT a partagé une mise à jour post-mortem provenant du site d'OpenAI, expliquant qu'"une optimisation de l'expérience utilisateur avait introduit un bug dans le traitement du langage par le modèle", tout en confirmant qu'un correctif avait été mis en place.
Malgré la résolution rapide, cet incident a soulevé des inquiétudes sur la fiabilité et l'intégrité de ChatGPT et d'autres produits d'OpenAI, tels que GPT-4 et GPT-3.5, notamment pour des tâches critiques dans des secteurs comme le transport, la santé et l'ingénierie.
La question pressante demeure : comment éviter que de tels problèmes ne se reproduisent à l'avenir ?