Desvendando o Enigma do Viés da IA: Como a Diversidade Oferece uma Solução Simples

À medida que nos aproximamos do segundo aniversário do ChatGPT e do subsequente crescimento das aplicações de IA generativa, é evidente que coexistem duas realidades: o potencial transformador dessa tecnologia é inegável, mas os riscos de viés inerente a esses modelos são significativos.

Em menos de dois anos, a IA evoluiu de uma assistente em tarefas cotidianas—como chamar carros de aplicativos e sugerir compras online—para influenciar decisões críticas em áreas como seguros, habitação, crédito e benefícios sociais. Enquanto os vieses anteriores—como recomendar cola para pizza—podiam parecer triviais, tornam-se preocupações sérias quando afetam serviços essenciais que impactam nossas vidas.

Mitigando o Viés em IA: Um Chamado à Diversidade

Surge a pergunta: Como podemos mitigar efetivamente o viés em IA quando os dados de treinamento são falhos? Esse desafio se agrava quando os criadores de modelos não têm consciência para identificar o viés em suas diversas formas. A solução está em aumentar a diversidade nas equipes de IA—especificamente, com mais mulheres, mais minorias e mais pessoas mais velhas.

Educação e Exposição Inicial

Promover diversidade em IA não deveria ser um tema controverso. No entanto, em meus 30 anos de experiência em STEM, frequentemente me vi na minoria. Apesar dos avanços significativos no cenário tecnológico, a diversidade na força de trabalho—especialmente em dados e análises—permanece estagnada. O Fórum Econômico Mundial relata que as mulheres representam apenas 29% dos trabalhadores de STEM, embora sejam quase metade (49%) da força de trabalho total em áreas não-STEM. Em matemática e ciência da computação, profissionais negros correspondem a míseros 9%. Esses números se mantêm constantes há duas décadas, e apenas 12% das mulheres chegam ao C-suite.

Para corrigir isso, precisamos de estratégias abrangentes que tornem STEM atraente para mulheres e minorias, desde a educação básica. Um exemplo inspirador vem de um vídeo da Mattel, mostrando meninas escolhendo brinquedos tradicionais. Após a exposição a figuras inspiradoras como Ewy Rosqvist, a primeira mulher a vencer o Grande Prêmio de Carros de Turismo da Argentina, suas perspectivas mudaram. Isso ressalta a importância da representação na promoção do interesse em STEM.

Devemos enviar mensagens positivas sobre STEM para meninas, assegurando oportunidades iguais para exploração. Colaborações com ONGs como Data Science for All e os bootcamps de IA da Mark Cuban Foundation são essenciais. Também precisamos celebrar mulheres pioneiras na área—como Lisa Su, CEO da AMD, Mira Murati, CTO da OpenAI, e Joy Buolamwini, da The Algorithmic Justice League—para mostrar que STEM não é apenas um domínio masculino.

Dados e IA sustentarão inúmeras carreiras futuras—de atletas a cineastas. É crucial eliminar as barreiras que restringem o acesso à educação em STEM para minorias e ilustrar que uma base em STEM abre portas para diversas carreiras.

Reconhecendo e Abordando o Viés

O viés em IA se manifesta de duas maneiras principais: através dos conjuntos de dados usados para treinamento e pelos vieses dos indivíduos que os desenvolvem. Para reduzir o viés, devemos primeiro reconhecer sua existência e entender que todos os dados contêm vícios inerentes, frequentemente exacerbados por preconceitos humanos inconscientes.

Por exemplo, geradores de imagem como MidJourney, DALL-E e Stable Diffusion. Análise do The Washington Post revelou que, ao solicitar a representação de uma "mulher bonita", os resultados apresentavam predominantemente mulheres jovens, magras e brancas, com apenas 2% mostrando envelhecimento visível e apenas 9% apresentando tons de pele escura. Essas descobertas refletem uma desconexão evidente da verdadeira diversidade da feminilidade.

Vieses mais sutis também existem. Quando comecei minha carreira em Zurique no final da década de 1980, não consegui abrir uma conta bancária como mulher casada, apesar de ser a principal provedora da família. Se modelos de IA são treinados com dados históricos de crédito que não representam mulheres, podem desconsiderar fatores cruciais, como licenças maternidade ou lacunas de cuidado infantil. Abordar essas questões pode envolver o uso de dados sintéticos gerados por IA, mas somente se os criadores estiverem cientes desses vieses.

Portanto, é essencial que vozes diversas—especialmente mulheres—participem de todas as etapas do processo de desenvolvimento de IA. Não podemos confiar essa responsabilidade apenas a um pequeno grupo de tecnólogos que não reflete a rica diversidade da população global.

O Caso pela Diversidade em IA

Embora eliminar completamente o viés em IA possa ser uma meta irrealista, ignorar a questão é igualmente inaceitável. Aumentar a diversidade em STEM e dentro das equipes de desenvolvimento de IA é fundamental para criar modelos mais precisos e inclusivos que beneficiem a todos.

Cindi Howson é Chief Data Strategy Officer na ThoughtSpot e ex-VP da Gartner Research.

Most people like

Find AI tools in YBX