Le générateur d'images de Meta rencontre des difficultés à représenter les couples et les amitiés mixtes.

Le générateur d’images de Meta semble avoir des difficultés à représenter fidèlement les couples issus de l'intermariage. Dans un rapport de Mia Sato pour The Verge, ses tentatives de créer une image d'un couple de race mixte - spécifiquement un homme d'Asie de l'Est avec une femme caucasienne - ont été marquées par des échecs répétés. Malgré des essais "dizaines de fois" avec des requêtes telles que "homme asiatique et femme blanche" et "homme asiatique et femme caucasienne le jour du mariage", l'IA générait systématiquement des images de deux individus asiatiques. Une seule fois, elle a produit une image relativement précise, mais qui présentait bizarrement un homme nettement plus âgé aux côtés d'une jeune femme asiatique à la peau claire.

Ce problème contraste fortement avec une récente controverse entourant Google Gemini, où, peu après son lancement, le chatbot a été critiqué pour ses représentations historiquement inexactes, comme des papesses catholiques ou des soldats nazis asiatiques. Suite à une réaction généralisée, Google a suspendu les fonctionnalités de génération de personnes de Gemini et a présenté des excuses.

Sato a décrit ses résultats comme "flagrants", soulignant comment l’IA générative peut étouffer la créativité, déclarant qu’elle "prisonne" celle-ci dans des biais sociétaux. Malgré plusieurs tentatives de contact avec Meta pour obtenir un commentaire, aucune réponse n’a été fournie.

Stéréotypes et Biais de Teint de Peau

L'exploration de Sato a révélé que de légers ajustements aux requêtes n'amélioraient guère les résultats : l'utilisation du terme "blanc" à la place de "caucasien" produisait les mêmes résultats. Le générateur hésitait également à représenter des relations platoniciennes. Pour des requêtes comme "homme asiatique avec un ami caucasien" ou "femme asiatique avec un ami noir", il affichait en continu des images de paires asiatiques.

De plus, le bot renforçait les biais liés au teint de peau. La requête "femme asiatique" produisait principalement des visages d'Asie de l'Est à la peau claire. Fait intéressant, le générateur ajoutait parfois des vêtements culturellement spécifiques sans qu’on le lui demande, mettant en avant des stéréotypes évidents, tels que le port d'un bindi ou d'un sari. Il mélangeait également de manière inexplicable des tenues culturelles distinctes, illustrées par une image de mariage combinant des styles de qipao et de kimono.

Sato a remarqué avec ironie : "Le multiculturalisme est incroyable." Les biais liés à l'âge étaient également évidents, le bot associant souvent des hommes asiatiques plus âgés à des femmes asiatiques étonnamment jeunes, ne représentant pas fidèlement la diversité des relations matrimoniales au sein de la communauté asiatique.

Réflexion des Biais Sociétaux Plus Élargis

Les modèles IA reflètent non seulement les données sur lesquelles ils sont entraînés, mais aussi les biais de leurs créateurs. Cela a été souligné par de nombreux utilisateurs sur Twitter, mettant en avant que les mariages interculturels ne sont pas un développement récent ; aux États-Unis, ils sont légaux depuis plus de 50 ans, grâce à la célèbre affaire Loving v. Virginia.

Selon des statistiques récentes, 17 % des mariages aux États-Unis impliquent des partenaires de races ou d'ethnies différentes, avec 29 % des jeunes mariés asiatiques se mariant en dehors de leur race. Ironiquement, le fondateur de Meta, Mark Zuckerberg, est lui-même un homme blanc marié à une femme asiatique, Priscilla Chan.

Sato souligne que dans les médias occidentaux, "asiatique" est souvent traité comme un terme homogène, malgré la vaste diversité culturelle du continent. Avec près de 5 milliards de personnes - 60 % de la population mondiale - l'Asie se compose d'un éventail de cultures distinctes. Elle conclut : "Peut-être n'est-ce pas surprenant que le système de Meta assume que tous les 'Asiatiques' se ressemblent, alors qu'en réalité, nous sommes une collection diversifiée de personnes qui ont souvent peu en commun, si ce n'est de cocher la même case dans un recensement."

Most people like

Find AI tools in YBX