本週在X(前身為Twitter)上與科技和人工智慧社群的互動,提供了對Google最新AI聊天機器人Gemini的能力與缺失的寶貴見解。科技專業人士、影響者及作家分享了他們與Gemini互動的截圖,突顯出一些奇怪、不準確和不符合歷史事實的圖像生成例子。批評者指出,這些產出往往過於迎合多元性和「覺醒」的觀念。
在本篇文章發佈前,Google的產品高級總監Jack Krawczyk在X上回應,承認公司已注意到Gemini在歷史圖像生成中的不準確性,並正在積極解決這些問題。Krawczyk表示:「我們知道Gemini在某些歷史圖像生成的描述上存在不準確性,我們正立即著手修正。作為我們AI原則的一部分,我們設計的圖像生成能力旨在反映我們的全球用戶基礎,並重視代表性和偏見管理。我們會持續這樣做而對於開放式提示,歷史背景需要更多的細膩,我們會相應改善我們的系統。感謝你的反饋,請繼續給我們意見!」
Gemini於去年首次推出時受到廣泛期待,並定位為領先的AI模型,潛在地與目前主導大多數第三方基準的OpenAI的GPT-4競爭。然而,獨立評估顯示,Gemini的表現不及OpenAI的舊版模型GPT-3.5,促使Google於今年早些時候推出了進階版本Gemini Advanced和Gemini 1.5,並逐步淘汰其之前的Bard聊天機器人。
儘管進行了更新,Gemini仍因不願生成歷史圖像而受到批評,例如對於1930年代德國士兵的表現,以及對與歷史準確性不符的美洲土著及深膚色人群的質疑描述。例如,該AI在描繪早期歐洲文化時似乎錯誤地強調多樣性。
用戶對Gemini被認為過於遵守「覺醒」的看法表示擔憂,這個術語的含義已從意識到美國種族不平等演變為貶義詞,用以批評那些看似過度政治正確的組織。
有趣的是,一些用戶注意到Gemini的輸出在實時中調整,顯示Google正在積極改善其圖像生成能力。Google發言人重申了Krawczyk對改善的承諾,承認需要更準確的描述,同時強調多樣性的重要性。
Meta AI項目負責人Yann LeCun指出了一個令人擔憂的例子,Gemini拒絕生成1989年天安門廣場抗議的圖像。LeCun認為,這種省略凸顯了開源AI的必要性,使得對輸出有更廣泛的控制。
圍繞Gemini圖像輸出的審視,引發了關於AI如何處理敏感問題(包括多元性、歷史不公和壓迫)的更大討論。Google曾在2015年遇到類似爭議,例如Google Photos的算法偏見事件。此外,2017年員工James Damore因批評Google的多樣性實踐而被解雇的事件進一步顯示了科技公司在這些討論中所面臨的挑戰。
其他公司在AI的影響上也掙扎。例如,微軟的AI聊天機器人Tay在生成有害和種族主義的輸出後被迫關閉。為了避免過去的失誤,Google對Gemini採取的限制性措施卻因扭曲歷史以迎合現代觀感而受到反對,這引發了與喬治·奧威爾的《1984》類似的比較,其中一個威權主義政權壓制真相。
類似的批評也出現在OpenAI的ChatGPT身上,用戶試圖「越獄」系統以獲取限制的信息,反映出對自由表達的渴望與減少有害內容之間的持續緊張。AI開發者面臨兩難局面,必須在允許內容的需求與用戶的反饋之間保持平衡,許多用戶認為限制導致歷史不準確性。這種緊張關係引發了對開源模型的呼聲,使得個人有更多自主權,但同時也提高了對於不受限制內容所帶來的潛在風險的擔憂。
生成性AI的激增只會加劇自由表達與防止社會性損害行為之間的辯論。隨著技術進步的演變,對其在社會中影響的分歧將繼續引發激烈的討論。