為什麼人工通用智能超越深度學習的範疇

Sam Altman 最近的就業發展以及圍繞 OpenAI 創新 Q* 模型的猜測,重新點燃了人們對人工通用智能 (AGI) 相關機會與風險的關注。AGI 旨在執行與人類相當的智慧任務。人工智能的快速進展,尤其是透過深度學習,已引發對 AGI 潛在來臨的既興奮又擔憂。不少組織,包括 OpenAI 及伊隆·馬斯克的 xAI,致力於推進 AGI 的發展,提出了一個關鍵問題:當前的 AI 進展是否在引導我們走向 AGI?

深度學習的局限性

深度學習是一種主流的機器學習方法,基於人工神經網絡,支撐著 ChatGPT 和許多現代 AI。它因為能夠以最少的預處理來處理各類數據而受到讚譽,許多人期望深度學習在 AGI 的發展中扮演關鍵角色。

然而,深度學習存在顯著的局限性。建立有效模型需要龐大的數據集和大量計算資源。這些模型基於訓練數據提取統計規則,再將其應用於新的資訊以生成回應。這種方法依賴於預測邏輯;模型隨著新現象的出現更新規則,但對真實世界不確定性的脆弱性限制了其達成 AGI 目標的能力。例如,2022 年 6 月的一起自駕 Robotaxi 事件說明了這一風險:該車輛在未曾訓練過的未知情境中出現故障,導致決策失誤。

「如果」的困境

人類作為 AGI 的藍圖,並不為每種情境制定全面的規則。相反,我們透過即時感知與環境互動,運用現有知識來理解背景與影響因素。與基於固定標準分類物體的深度學習模型不同,人類採用更具靈活性的方式,根據需要調整既有規則來做出有效選擇。

例如,如果你在健行時遇到一個不熟悉的圓柱形物體,深度學習模型會要求你分析各種特徵並將其分類為威脅(如蛇)或無害(如繩子),然後再行動。而人類會從遠處評估情況,不斷更新理解,並根據更廣泛的過去經驗和潛在行為做出決定。這種細膩的方法強調探索替代方案而非僵硬預測,暗示達成 AGI 或許更依賴於增強我們的「如果」推理能力,而非單純的預測。

在深度不確定性下的決策:前進之路

創新框架如深度不確定性下的決策 (DMDU) 提供了 AGI 的有力策略。DMDU 方法,例如穩健決策(Robust Decision-Making),評估不同決策在各種未來情境中的表現,而無需不斷重新訓練。它們專注於識別決策結果的關鍵因素,旨在找到在不同背景下都能提供可接受結果的穩健解決方案。

與優化為主的傳統深度學習解決方案不同,DMDU 方法尋求能夠適應多樣環境的彈性替代方案,為能夠應對現實世界不確定性的 AI 提供了有價值的基礎。

自動駕駛車輛中的穩健決策

完全自動駕駛車輛 (AVs) 的發展是該方法論的實際範例。AVs 必須在多變且不可預測的條件下運行,與人類在交通中的決策過程相似。儘管在實現完全自動駕駛方面投入了大量資金,這些系統在不確定的情境下仍然面臨挑戰。建模每種可能情況的固有限制需要持續努力來應對 AV 技術中的意外挑戰。

一個潛在解決方案是采用穩健的決策框架。AV 传感器會收集實時數據,評估不同決策(如加速、變換車道或剎車)在特定交通情況下的表現。如果對標準演算法的反應有疑慮,系統可以分析不同選擇在該情境中的脆弱性,減少對龐大數據重訓練的依賴,並提升對現實世界不確定性的適應能力。這種轉變可能通過優先考慮決策靈活性而非追求完美預測來提升 AV 的性能。

強調決策背景以促進 AGI 的發展

隨著 AI 技術的不斷演進,或許有必要遠離深度學習範式,專注於決策背景,以促進 AGI 的進步。雖然深度學習在許多應用中有效,但在實現 AGI 時卻不能達標。

DMDU 方法論有望為應對現實世界不確定性的 AI 提供更為穩健的決策驅動方法。

Most people like

Find AI tools in YBX