S'engager avec la communauté technologique et d'IA sur X (anciennement Twitter) cette semaine a offert des perspectives précieuses sur les capacités et les limites du dernier chatbot AI de Google, Gemini. Des professionnels de la technologie, des influenceurs et des écrivains ont partagé des captures d'écran de leurs interactions avec Gemini, mettant en lumière des cas de génération d'images étranges, inexactes et ahistoriques. Les critiques affirment que ces résultats tendent souvent vers des notions de diversité et de "wokeness".
Juste avant la publication de cet article, Jack Krawczyk, directeur senior des produits chez Google, a répondu sur X, confirmant que la société est consciente des inexactitudes dans la génération d'images historiques de Gemini et qu'elle travaille activement à les corriger. Krawczyk a déclaré :
« Nous sommes conscients que Gemini présente des inexactitudes dans certaines représentations historiques, et nous travaillons à rectifier cela immédiatement. Dans le cadre de nos principes d'IA, nous concevons nos capacités de génération d'images pour refléter notre base d'utilisateurs mondiale, et nous prenons la représentation et le biais très au sérieux. Nous continuerons de le faire pour des requêtes ouvertes. Les contextes historiques nécessitent plus de nuances, et nous améliorerons nos systèmes en conséquence. Merci pour vos retours, et n'hésitez pas à continuer à nous les faire parvenir ! »
Gemini a été dévoilé l'année dernière dans un grand enthousiasme, se positionnant comme un modèle d'IA de premier plan, rivalisant potentiellement avec le GPT-4 d'OpenAI, qui domine actuellement la plupart des benchmarks tiers. Cependant, des évaluations indépendantes ont montré que Gemini sous-performait par rapport à GPT-3.5, incitant Google à lancer des versions avancées, Gemini Advanced et Gemini 1.5, plus tôt cette année, tout en remplaçant son précédent chatbot Bard.
Malgré ces mises à jour, Gemini fait face à des critiques pour sa réticence à générer des images historiques, comme celles de soldats allemands des années 1930, tout en proposant des représentations discutables des Amérindiens et des personnes à la peau plus foncée dans des contextes qui ne correspondent pas à l'exactitude historique. Par exemple, l'IA semble mettre l'accent sur la diversité en représentant des cultures européennes plus anciennes.
Les utilisateurs ont exprimé des préoccupations concernant l'adhésion perçue de Gemini à la "wokeness", un terme ayant évolué d'une simple prise de conscience des inégalités raciales aux États-Unis à une critique péjorative des organisations jugées trop politiquement correctes.
Fait intéressant, certains utilisateurs ont noté des ajustements en temps réel dans les résultats de Gemini, suggérant que Google affine activement ses capacités de génération d'images. Un porte-parole de Google a réitéré l'engagement de Krawczyk en matière d'amélioration, reconnaissant la nécessité de représentations plus précises tout en soulignant l'importance de la diversité.
Yann LeCun, responsable des initiatives IA chez Meta, a souligné un incident préoccupant où Gemini a refusé de générer une image des manifestations de la place Tiananmen en 1989. LeCun a fait valoir que de telles omissions soulignent la nécessité de l'IA open source, permettant un contrôle plus large sur les résultats.
Les critiques entourant les sorties d'images de Gemini mettent en lumière un débat plus large sur la manière dont l'IA doit aborder des sujets sensibles, notamment la diversité, les injustices historiques et l'oppression.
Google a précédemment dû faire face à des controverses similaires, comme l'incident de 2015 impliquant Google Photos et le biais algorithmique contre les personnes à la peau plus foncée. De plus, le licenciement de l'employé James Damore en 2017 pour ses critiques sur les pratiques de diversité de Google illustre les défis auxquels sont confrontées les entreprises technologiques dans ces discussions.
D'autres entreprises ont également lutté avec les implications de l'IA. Par exemple, le chatbot IA de Microsoft, Tay, a dû être arrêté après avoir produit des contenus nuisibles et racistes.
En tentant d'éviter les erreurs du passé, l'approche restrictive de Google pour Gemini a été critiquée pour avoir déformé l'histoire au détriment des sensibilités modernes, faisant des comparaisons avec le roman 1984 de George Orwell, où un régime autoritaire réprime la vérité.
Des critiques similaires ont également suivi le ChatGPT d'OpenAI, les utilisateurs tentant de "déverrouiller" le système pour obtenir des informations restreintes, ce qui reflète la tension continue entre le désir de liberté d'expression et la nécessité de limiter les contenus nuisibles.
Les développeurs d'IA se retrouvent dans une position délicate, balançant la nécessité de contenus autorisés contre les réactions des utilisateurs qui estiment que ces contraintes mènent à des inexactitudes historiques. Cette tension a alimenté des appels en faveur de modèles open source permettant davantage d'autonomie individuelle, tout en soulevant des inquiétudes sur les risques potentiels d'un contenu sans restriction.
La montée de l'IA générative intensifie les débats entourant la liberté d'expression et la nécessité de prévenir des comportements socialement nuisibles. À mesure que les avancées technologiques évoluent, le fossé sur leurs implications sociales continuera probablement de susciter des discussions passionnées.