為何人工智慧是一位過於自信的誤導者:探討其限制與知識缺口

信任 AI:AI 輸出結果中正當性的必要性

每個月,有超過 5 億人依賴 Gemini 和 ChatGPT 獲取資訊,從烹飪義大利麵到解決複雜的家庭作業。然而,若 AI 建議用汽油煮義大利麵,則會引發對其在其他領域(例如避孕或代數)的可靠性質疑。

在今年一月的世界經濟論壇上,OpenAI 首席執行官 Sam Altman 強調了 AI 輸出透明度的重要性:“我無法讀懂你的思想,但我可以請你解釋你的推理,並判斷這是否合理。我相信我們的 AI 系統將能做到這一點。”

知識需要正當性

Altman 希望通過建議大型語言模型(LLMs),如 ChatGPT,能為其輸出提供清晰解釋,以增強人們對其的信任。沒有有效的正當性,信念無法被視為知識。我們何時會對自己的知識感到有根據?通常,當我們的信念有可信的證據、邏輯論證或受信來源的證詞支撐時,我們就會有這樣的感覺。

LLMs 旨在成為可靠的信息來源。然而,缺乏解釋推理的能力使我們無法相信其主張符合我們的正當性標準。例如,如果你斷言今天田納西的霾是由加拿大野火引起的,我可能會接受你的說法。但如果你之前聲稱在論文辯護中蛇鬥非常常見,那麼你的可信度便受到質疑。我會要求你針對霾的推理提供澄清。

AI 理解的局限性

當前的 AI 系統無法通過推理來獲得我們的信任,因為它們缺乏這種能力。LLMs 根據大型數據集訓練,以偵測和預測語言模式。當給出提示時,這些工具根據這些模式生成響應,常常模仿知識豐富的人的語言。然而,這個過程並不能驗證內容的準確性或正當性。正如 Hicks、Humphries 和 Slater 在《ChatGPT 是胡說》中所指出的,LLMs 生成的文本看似有說服力,但缺乏對真相的實際關注。

如果 AI 生成的內容不等同於人類的知識,那麼它究竟是什麼?雖然將所有輸出標籤為“胡說”的說法可能不完全準確,但許多 LLM 的回應是事實上的正確,這導致了哲學家所稱的 Gettier 案例。這些情況發生在真實信念與缺乏對其正當性的理解共存的時候。

AI 輸出如同幻影

舉例來說,假設靈感來自於八世紀印度佛教哲學家 Dharmottara:想像在炎熱的日子裡尋找水源。你看到看似水的東西,但發現那實際上是海市蜃樓。然而當你到達那個地方時,卻在一塊石頭下找到真正的水。你能否聲稱你對你所尋找的水有真實的知識?

大多數人會同意,那些旅行者並沒有真正的知識;他們僅僅在沒有合solid 理由的情況下偶然發現了水。

當我們聲稱知道從 LLM 學到的東西時,我們就置身於與 Dharmottara 的旅行者類似的困境。如果 LLM 的訓練充分,它的輸出很可能是正確的,就像是在預測的地方發現水一樣。然而,支持這一主張的正當性存在於數據集中某處,但在生成輸出時並未發揮作用。

因此,Altman 的保證可能會令人誤解。如果你要求 LLM 對其輸出進行正當性解釋,它會創造一個令人信服但表面化的正當性——正如 Hicks 和其他人描述的“Gettier 正當性”。這種模仿缺乏真正的基礎。

誤導性正當性的風險

目前,AI 系統經常誤解或“幻覺”事實信息,導致不一致性。隨著正當性幻影變得越來越令人信服,我們面臨兩種潛在結果:

1. 知情用戶:了解 AI 固有局限性的人會認識到 LLM 產生的是誤導性主張。

2. 不知情用戶:不理解 AI 輸出本質的人可能會被誤導,生活在難以區分事實與虛構的狀態中。

對 AI 輸出正當性的需求

雖然 LLM 作為強有力的工具,但它們產生的輸出需要審查。用戶,特別是沒有專業知識的人,依賴 AI 獲取關鍵知識,例如青少年尋求代數幫助或安全性建議。為了確保 AI 輸出的問責制和信任,我們必須了解每個主張背後的正當性。

幸運的是,有經驗的人知道橄欖油比汽油更適合烹飪義大利麵。但有多少有可能危害現實的食譜,我們在未經質疑其正當性的情況下就盲目接受了來自 AI 的輸出呢?

Most people like

Find AI tools in YBX