隨著ChatGPT兩周年紀念日的臨近,以及生成式AI應用的迅速增長,顯而易見的是兩種現實共存:這項技術的變革潛力不容小覷,但這些模型中固有的偏見風險卻不容忽視。
在不到兩年的時間裡,AI已經從協助日常任務(如叫車或建議在線購物)發展到影響保險、住房、信貸和福利索賠等重要決策。過去一些像是在比薩上推薦膠水的偏見可能被視為微不足道,但當這些偏見影響到基本服務時,就成為嚴重的問題,關係到我們的生計。
缓解AI偏見:呼籲多樣性
問題來了:當訓練數據本身存在缺陷時,我們如何有效緩解AI偏見?當模型創建者缺乏識別各種形式偏見的能力時,挑戰更是加劇。解決之道在於增強AI團隊的多樣性——特別是增加女性、少數族裔和年長者的參與。
早期教育與曝光
推動AI中的多樣性不應成為爭議話題。然而,在我30年的STEM經驗中,我經常發現自己是少數。儘管科技界已經取得重大進展,但在數據和分析領域的勞動力多樣性仍然停滯不前。世界經濟論壇報告顯示,女性在STEM工作者中僅佔29%,而在非STEM領域的總勞動力中幾近一半(49%)。在數學和計算機科學領域,黑人專業人士的比例僅為9%。這些數字已持平整整20年,只有12%的女性能進入高層管理。
為了解決這一問題,我們需要全面策略,使STEM對女性和少數族裔更具吸引力,從小學階段開始。舉個例子,Mattel的一段影片展示了年輕女孩選擇傳統玩具。在接觸到像是阿根廷巡迴賽首位女性冠軍Ewy Rosqvist等激勵人物後,她們的觀念發生了轉變。這突顯了代表性在激發STEM興趣中的重要性。
我們必須積極傳遞有關STEM的正面信息,以確保年輕女孩享有平等的探索機會。與Data Science for All及Mark Cuban Foundation的AI訓練營等非營利組織的合作至關重要。我們還需要慶祝如AMD首席執行官Lisa Su、OpenAI首席技術官Mira Murati和算法公正聯盟的Joy Buolamwini等領域的女先驅,向女孩展示STEM不是男性的專屬領域。
數據和AI將成為未來無數職業的基礎,無論是運動員還是電影製作人。消除對少數族裔獲取STEM教育的障礙至關重要,並說明STEM基礎為多樣的職業道路鋪平了道路。
認識與解決偏見
AI偏見主要以兩種方式表現出來:一是訓練用數據集,二是開發這些數據集的個體偏見。要減少偏見,我們首先必須承認其存在,並認識到所有數據皆包含固有偏見,這些偏見往往會因人類的潛意識偏見而加劇。
舉例來說,知名的影像生成器如MidJourney、DALL-E和Stable Diffusion的分析顯示,當被要求描繪一位“美麗的女性”時,結果大多是年輕、瘦弱且白人女性,只有2%顯示出可見的衰老,僅9%展現出深膚色。這些發現與女性的真實多樣性存在明顯脫節。
隱性偏見同樣存在。比如,在我1980年代末在蘇黎世開始職業生涯時,儘管我是主要收入者,但作為已婚女性我無法開設銀行帳戶。如果AI模型是在缺乏女性代表的歷史信貸數據上進行訓練的,可能會忽視如產假或育兒缺口等重要因素。解決這些疑慮可能需使用由AI生成的合成數據,但前提是創建者能意識到這些偏見。
因此,各種聲音,尤其是女性的聲音,必須參與AI開發的每一個步驟。我們不能僅僅將這項責任委託給一小群無法反映全球人口豐富多樣性的技術人員。
支持AI中的多樣性
儘管完全消除AI中的偏見可能不是現實的目標,但忽視這一問題同樣不可接受。在STEM及AI開發團隊中增加多樣性對於創建更準確且包容的模型至關重要,以惠及每一個人。