Déverrouiller le Puzzle des Biais de l'IA : Comment l'Adoption de la Diversité Propose une Solution Simple

À l'approche du deuxième anniversaire de ChatGPT et de l'essor des applications d'IA générative, il est clair que deux réalités coexistent : le potentiel transformateur de cette technologie est indéniable, mais les risques de biais inhérents à ces modèles sont considérables.

En moins de deux ans, l'IA a évolué d'une aide pour des tâches quotidiennes – comme commander des transports ou suggérer des achats en ligne – à une influence sur des décisions critiques dans des domaines tels que l'assurance, le logement, le crédit et les demandes d'aide sociale. Alors que des biais antérieurs – comme recommander de la colle pour une pizza – pouvaient sembler trivials, ils deviennent préoccupants lorsque ces biais affectent des services essentiels qui impactent nos vies.

Atténuer le Biais de l'IA : Un Appel à la Diversité

La question se pose : comment peut-on atténuer efficacement le biais de l'IA lorsque les données d'entraînement elles-mêmes sont défaillantes ? Ce défi est amplifié lorsque les créateurs de modèles ne sont pas conscients des biais sous leurs différentes formes. La solution réside dans l'augmentation de la diversité au sein des équipes d'IA – notamment par l'inclusion de plus de femmes, de minorités et de personnes âgées.

Éducation Précoce et Exposition

Promouvoir la diversité dans l'IA ne devrait pas être un sujet de controverse. Pourtant, après 30 ans d'expérience dans les STEM, je me suis souvent retrouvé en minorité. Bien que le paysage technologique ait considérablement évolué, la diversité de la main-d'œuvre – particulièrement dans les données et l'analyse – stagne. Le Forum Économique Mondial rapporte que les femmes ne représentent que 29% des travailleurs STEM tout en constituant près de la moitié (49%) de la main-d'œuvre totale dans des domaines non STEM. Dans les mathématiques et l'informatique, les professionnels noirs ne représentent qu’un maigre 9%. Ces chiffres sont stables depuis deux décennies, avec seulement 12% de femmes accédant à des postes de direction.

Pour corriger cela, nous avons besoin de stratégies globales pour rendre les STEM attrayants pour les femmes et les minorités, dès l’école primaire. Un exemple inspirant provient d'une vidéo de Mattel montrant de jeunes filles choisissant des jouets traditionnels. Après avoir été exposées à des figures inspirantes comme Ewy Rosqvist, la première femme à remporter le Grand Prix de Tourisme argentin, leurs perspectives ont changé. Cela souligne l'importance de la représentation pour susciter l'intérêt envers les STEM.

Nous devons envoyer des messages positifs sur les STEM aux jeunes filles, assurant des opportunités d'exploration équitables. Les collaborations avec des organisations telles que Data Science for All et les bootcamps IA de la Mark Cuban Foundation sont essentielles. Il est également nécessaire de célébrer des femmes pionnières dans ce domaine – comme Lisa Su d'AMD, Mira Murati d'OpenAI et Joy Buolamwini de The Algorithmic Justice League – pour montrer aux filles que les STEM ne sont pas exclusivement un domaine masculin.

Les données et l'IA constitueront les fondements de nombreuses carrières futures, des athlètes aux réalisateurs. Il est essentiel d’éliminer les barrières qui restreignent l'accès à l'éducation STEM pour les minorités et de montrer qu’une formation dans les STEM ouvre la porte à des chemins de carrière variés.

Reconnaître et Aborder les Biais

Le biais de l'IA se manifeste principalement de deux manières : à travers les ensembles de données utilisés pour l'entraînement et à travers les biais des personnes qui les développent. Pour diminuer ce biais, nous devons d’abord reconnaître son existence et admettre que toutes les données contiennent des biais inhérents, souvent exacerbés par des préjugés humains inconscients.

Prenons, par exemple, des générateurs d'images connus tels que MidJourney, DALL-E et Stable Diffusion. Une analyse du Washington Post a révélé que lorsqu'on leurDemandait de représenter une « femme belle », les résultats mettaient majoritairement en avant de jeunes femmes minces et blanches, avec seulement 2% montrant des signes de vieillissement et à peine 9% présentant des teintes de peau foncée. Ces résultats reflètent un décalage flagrant par rapport à la véritable diversité de la féminité.

Des biais plus subtils existent également. Par exemple, lorsque j'ai débuté ma carrière à Zurich à la fin des années 1980, je n'ai pas pu ouvrir un compte bancaire en tant que femme mariée, bien que je sois la principale responsable du revenu. Si les modèles d'IA sont entraînés sur des données historiques de crédit qui manquent de représentation pour les femmes, ils peuvent négliger des facteurs cruciaux comme les congés de maternité ou les interruptions liées aux soins. Aborder ces préoccupations peut impliquer d’utiliser des données synthétiques générées par l'IA, mais seulement si les créateurs sont conscients de ces biais.

Ainsi, il est essentiel d'impliquer des voix diverses – en particulier des femmes – à chaque étape du processus de développement de l'IA. Nous ne pouvons pas confier cette responsabilité à un petit groupe de technologues qui ne reflète pas la riche diversité de la population mondiale.

L’Argument en Faveur de la Diversité dans l’IA

Bien qu'éliminer complètement le biais de l'IA puisse sembler un objectif irréaliste, ignorer ce problème est tout aussi inacceptable. Augmenter la diversité dans les STEM et au sein des équipes de développement de l'IA est essentiel pour créer des modèles plus précis et inclusifs qui bénéficient à tous.

Cindi Howson est Chief Data Strategy Officer chez ThoughtSpot et ancienne VP chez Gartner Research.

Most people like

Find AI tools in YBX