解锁AI偏见难题:拥抱多样性为解决方案提供简单路径

随着ChatGPT的两周年纪念迫近,生成性人工智能应用程序的快速发展显而易见地展现出两种现实: 这项技术的变革潜力无可否认,但其模型中固有的偏见风险也同样显著。

在短短两年内,人工智能从帮助日常任务(如叫车和推荐在线购物)发展到在保险、住房、信贷和福利申请等关键决策中产生影响。曾经的偏见(例如推荐用胶水来拼接披萨)或许被视为微不足道,但当这种偏见影响到我们生活中至关重要的服务时,问题就变得严重了。

如何减少人工智能偏见:呼吁多样性

问题是:在训练数据本身存在缺陷的情况下,我们如何有效减少人工智能偏见?这一挑战在模型创建者缺乏识别各种偏见意识时更加复杂。解决方案在于增加人工智能团队的多样性,特别是更多的女性、少数族裔和老年人。

早期教育与接触

促进人工智能领域的多样性不应成为争议话题。然而,在我30年的STEM(科学、技术、工程和数学)工作中,我常常发现自己处于少数群体。尽管技术领域已经取得显著进步,但在数据和分析方面的员工多样性仍然停滞不前。世界经济论坛报告称,女性在STEM领域所占比例仅为29%,而在非STEM领域则接近一半(49%)。在数学和计算机科学领域,黑人专业人士的比例仅为9%。这些数字在过去20年中保持稳定,只有12%的女性能够晋升到高级管理层。

为此,我们需要全面的策略,让STEM对女性和少数族裔更具吸引力,教育应从小学阶段早期开始。Mattel的一段视频是一个有力的例子,视频中年轻女孩选择传统玩具。在接触到像Ewy Rosqvist这样激励人心的女性后,她们的观点发生了变化。这强调了代表性在激发STEM兴趣中的重要性。

我们必须有意识地向年轻女孩传递关于STEM的积极信息,确保她们获得平等的探索机会。与如“Data Science for All”和Mark Cuban基金会的人工智能训练营等非营利组织的合作至关重要。同时,我们还应庆祝这一领域的开创性女性,如AMD的CEO Lisa Su、OpenAI的CTO Mira Murati和The Algorithmic Justice League的Joy Buolamwini,以证明STEM并不仅仅是男性的领域。

数据和人工智能将为未来无数职业提供支撑,从运动员到电影制作人。消除限制少数族裔获取STEM教育的障碍至关重要,向她们展示STEM基础为多元化职业道路打开大门。

识别与应对偏见

人工智能偏见主要通过两个方面体现:训练过程中使用的数据集以及开发这些数据集的个人的偏见。要减少偏见,我们首先必须承认偏见的存在,并意识到所有数据都含有固有偏见,这些偏见往往因无意识的人类成见而加剧。

例如,当被要求描绘“美丽女性”时,知名图像生成器(如MidJourney、DALL-E和Stable Diffusion)的分析发现,结果主要显示年轻、纤细且肤色为白人的形象,仅有2%的结果展示了明显的衰老,仅9%的结果展示了深色肤色。这些发现明显与女性的真实多样性存在巨大差距。

更微妙的偏见同样存在。例如,在1980年代末我初到苏黎世时,尽管我是主要经济支柱,我仍不能以已婚女性的身份开设银行账户。如果人工智能模型在缺乏女性代表性情况下训练于历史信用数据,它们可能忽略诸如产假或育儿空档等关键因素。解决这些问题可能需要使用人工智能生成的合成数据,但前提是创建者要意识到这些偏见的存在。

因此,确保不同声音,尤其是女性在人工智能开发的每一个环节中参与至关重要。我们不能仅将这一责任委托给一个反映全球多样性匮乏的小科技团队。

人工智能中多样性的必要性

尽管彻底消除人工智能中的偏见可能是一个不切实际的目标,忽视这个问题同样不可接受。在STEM和人工智能开发团队中增加多样性是创建更准确、更具包容性模型的重要基础,它将使每个人受益。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles