谷歌在週五為其新型Gemini AI工具所生成的不準確且可能冒犯的圖像發出道歉。此回應源於用戶報告,指出Gemini針對納粹士兵和美國建國者等人物的提示產生了歷史上不準確且種族多元的圖像。
在一篇博客文章中,谷歌的高級副總裁普拉巴卡·拉哈萬承認,部分生成的圖像“既不準確亦可能具冒犯性”,並表示公司“未能達成目標”。拉哈萬進一步說明,谷歌旨在消除偏見,確保開放性提示中的多元代表性,但他強調,需提供特定歷史上下文的提示應該產生準確的反映。
“例如,如果你請求足球運動員或散步人員的圖像,多樣的描繪是合適的。你可能不希望只看到單一種族的圖像。”他解釋道。“相反地,如果你要求特定個體或群體在特定歷史背景下的圖像,回應必須準確反映你的請求。”
AI中的偏見與多樣性挑戰
此事件突顯了AI系統中持續存在的偏見挑戰,可能會不經意地放大刻板印象。其他AI工具因缺乏多樣性或不適當的表現也曾遭遇類似反感。谷歌在追求包容性方面似乎過度修正,生成了歷史上不合適的圖像,例如19世紀的種族多元美國參議員和多族裔納粹士兵,這引發了各方批評,指責其過度政治正確。
面對這些顧慮,谷歌暫停了Gemini生成人物圖像的能力,表示將在重新推出前提升這項功能。
Gemini爭議的深遠影響
Gemini事件反映了谷歌AI計劃中的更廣泛問題。在最近的推出後,該公司除了面對圖像爭議外,還因一部誇大Gemini能力的推廣影片和早前對其AI模型Google Bard的批評而受到負面關注。
隨著像微軟和OpenAI等競爭對手不斷壯大,谷歌在塑造“Gemini時代”的願景上掙扎不已。AI產品發布和品牌重塑的快速進程—從Bard到Gemini—令消費者感到困惑。
這些失敗凸顯了在歷史準確性和多樣性之間的調和挑戰,也揭示了谷歌戰略中的潛在弱點。曾經在搜尋技術中領先的谷歌,如今面臨提供一致性AI解決方案的困難。
這些問題部分源於當前科技理念中“快速行動與打破現狀”的觀念。谷歌匆忙推出Gemini及其變體以競爭ChatGPT等工具,但這種急於求成的方式只會侵蝕消費者信任。谷歌需要一個深思熟慮的AI發展藍圖,而非層出不窮的花俏產品。
此外,最新事件引發了對谷歌內部AI開發流程的質疑。早期報導顯示,將倫理考量納入AI的努力已經停滯。谷歌必須優先建立包容性和多樣性的AI團隊,由重視安全和負責任技術應用的領導者指導,而不僅僅是追求效率。
如果谷歌未能從這些早期失誤中吸取教訓,將風險進一步落後。用戶渴求清晰而非困惑。Gemini事件表明,谷歌已經失去了對其AI產出和信息傳遞的控制。回歸基本原則或許是恢復公眾對谷歌AI未來信心的關鍵。