最近的研究表明,人工智慧(AI)可能正在發展出類似人類的認知能力。研究人員發現,某些神經網絡顯示出與人類思維過程密切相關的行為。這一轉變對於發展更適合滿足人類需求和偏好的AI系統至關重要,最終幫助個人實現其目標。
神經網絡的進展
《自然》雜誌發表的一項突破性研究強調,神經網絡可以通過一種稱為組合性元學習(MLC)的技術模擬類似人類的思考方式。這一創新方法使AI系統能夠從一組有限的特定任務中學習,無需繁瑣的編程。相反,這些網絡從高層次的指示或範例中獲取見解,使其具備自主學習的能力。
在這項研究中,AI模型和人類參與者進行了一項涉及虛構語言的實驗,其中包含諸如「dax」和「wif」等與顏色點和特定操作功能對應的術語。參與者需要辨識支配單詞與視覺序列之間關係的「語法規則」。人類志願者成功生成正確的點序列的比例約為80%,這顯示了他們識別模式和規則的能力。當發生錯誤時,通常是系統性的,反映了對單詞意義的誤解,而非學習能力的欠缺。
正如人類擅長將新概念與現有知識融合一樣——例如,在學會「跳躍」後理解「向後跳躍」——這項研究探討了AI是否能夠獲得類似的系統推理能力。研究小組強調,他們實施的MLC只使用了標準神經網絡,無需額外的符號框架或預定偏見。通過依賴高層次的指導和直接的人類範例,網絡能夠發展所需的學習能力。
AI與人類認知的結構平行
人類大腦和AI神經網絡均由互聯單元組成,以促進信息處理。Gradient Insight的首席執行官Iu Ayala Portella解釋,儘管AI能快速分析大量數據,但它缺乏人類固有的理解上下文和傳達情感深度的能力。雖然AI能生成連貫的文本,卻不具備人類經驗所帶來的全面理解或洞察力。
人類-like智能系統的興起
AI獲得人類般智能的概念越來越受到重視,尤其在微軟研究人員提出大型語言模型GPT-4可能展示通向人工通用智能(AGI)的潛在途徑後。AGI是能執行等同於人類認知能力的任務的系統。然而,包括紐約大學的Gary Marcus和Ernest Davis在內的一些專家對此表示懷疑,認為像GPT-4這樣的模型可能僅僅依賴於記憶模式而非真正的理解。
來自謝菲爾德大學的進一步研究指出,儘管AI能夠復制某些學習過程,但準確地如同人類那樣思考可能需要更深層次的感官經驗和情感理解的整合。他們的研究結果突顯,真正的人類智能源自於經歷千百年演變的複雜大腦結構,與個人經歷密切相關。
人類-like AI應用的機會
儘管仍面臨挑戰,發展類似人類AI的潛在好處是顯著的。正如Portella所指出的,能夠進行上下文推理的AI系統可能會在自主駕駛和醫療保健等領域顯著改善決策。例如,旨在模擬人類思維過程的AI可以提高自駕車的安全性,或在考慮患者的病史和情感狀態與身體症狀的同時,幫助醫療專業人員診斷複雜疾病。
總之,儘管AI系統的進化在某種程度上反映了人類認知,但要實現與人腦相似的真正理解,仍需克服重大挑戰。持續探索這些方向將影響未來AI技術的發展及其在我們日常生活中的整合。