一年後人工智慧「紅色警報」,谷歌因Gemini面臨反彈:這是不可避免的嗎? | 人工智慧熱線

整個週末,我的社交媒體動態充斥著各種截圖、迷因和標題,無不諷刺或批評谷歌所謂的「覺醒」Gemini AI模型。這場騷動源於谷歌承認其發布的圖片歷史不準確且具誤導性。在X(前身為Twitter)上,用戶分享了Gemini的產出截圖,其中一則荒謬的聲稱是「無法確定,推特上的 Elon 比希特勒對社會的負面影響更大」。風投界的馬克·安德森則特別樂於轉發錯誤且冒犯的內容,稱其是「故意編程的,列舉了創造者所厭惡的人和思想」。

Gemini於去年12月推出時的初步熱潮,與隨之而來的反彈形成鮮明對比,當時Gemini被視為GPT-4的競爭者。去年,《紐約時報》報導,谷歌在2022年11月ChatGPT推出後聲明進入「紅色警報」,這引發了一波生成式AI的熱潮,威脅到這家科技巨頭的地位。

儘管谷歌在ChatGPT的開發背後有所貢獻,卻仍小心翼翼地保護其品牌。而像OpenAI這樣的初創公司似乎更願意承擔風險以實現快速增長。對於ChatGPT的成功,谷歌CEO蘇達爾·皮恰伊據報道深度參與了公司AI策略的重塑。

快速創新與維護用戶滿意度之間的緊張關係,可能促成了對Gemini的反彈。谷歌因擔心類似當前面臨的批評而對發布更先進的大型語言模型(LLMs)持謹慎態度,以避免不當AI輸出的後果。

這並不是谷歌首次面臨與LLMs相關的爭議。2022年6月,工程師布萊克·勒莫因聲稱谷歌的聊天機器人技術LaMDA具備感知能力。出身谷歌負責任AI團隊的勒莫因,曾測試LaMDA是否有歧視性語言的跡象,卻最終洩露了他與AI互動的紀錄,包括詢問AI的偏好代詞。

當時,谷歌及其研究實驗室DeepMind在LLM領域都非常謹慎。DeepMind計畫以私人測試方式發布其Sparrow聊天機器人,但強調Sparrow「不免犯錯」。

像OpenAI和Anthropic這樣的初創公司並不面臨與谷歌相同的壓力。如同《紐約時報》之前的報導指出,谷歌在負責任地部署先進AI方面掙扎,內部的討論也承認小公司營運的約束較少。谷歌意識到不得不與行業接軌,否則將面臨被淘汰的風險。

如今,谷歌全力投入生成式AI,但這一承諾同樣帶來挑戰。與不必面對股東需求或巨大的用戶基礎依賴其傳統產品的OpenAI不同,谷歌擁有複雜的義務網絡。

所有LLM公司都面臨著幻覺等問題;就在上週,ChatGPT也產生了不連貫的回應,並發表聲明承認正在處理該問題。雖然這些輸出未必引發與Gemini同樣的爭議,但對谷歌的期望依然很高。作為AI領域的成熟玩家,它面臨的審視遠超小型公司。

在滿足多元社會、文化和政治價值觀之間取得平衡幾乎不可能。隨著幻覺成為當前AI技術的內在部分,谷歌正面臨一個挑戰性的位置:在應對批評聲音的同時努力負責任地創新。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles