人工智慧先驅雅恩·勒昆(Yann LeCun)今天在巴黎的VivaTech會議上引發了熱烈的討論,他建議下一代開發者避免使用大型語言模型(LLM)。他表示:「這項工作由大型企業主導,對你來說貢獻空間不大。與其這樣,不如專注於超越LLM限制的下一代AI系統。」
作為Meta的首席AI科學家和紐約大學教授,勒昆的評論迅速引發了關於當前LLM缺陷的問題。在X(前推特)進一步被詢問時,他指出:「我正在開發下一代AI系統,而非LLM。我基本上是在說,‘與我競爭!’越多的頭腦參與,結果會越好!」
儘管他發出了號召,許多用戶仍渴望了解什麼是“下一代AI”,以及可能的LLM替代方案。在X平台上,開發者、數據科學家和AI專家分享了多種概念,包括基於邊界的AI、判別式AI、多任務、多模態、類別深度學習、基於能量的模型、目標驅動的小型語言模型、特定用例、自定義微調、狀態空間模型,以及用於具身AI的硬體。一些用戶甚至建議探索科爾莫戈羅夫-阿諾德網絡(KANs),這是一種在神經網絡領域的前沿進展。
一位用戶列出了五種下一代AI系統:
- 多模態AI
- 推理與通用智能
- 具身AI和機器人技術
- 無監督學習與自我監督學習
- 人工一般智能(AGI)
另一位建議每位學生都應掌握基礎知識,如:
- 統計學與概率論
- 數據整理與轉換
- 傳統模式識別(如:朴素貝葉斯、決策樹、隨機森林)
- 人工神經網絡
- 卷積神經網絡
- 循環神經網絡
- 生成式AI
相反,一些人認為現在正是學生接觸LLM的理想時機,因為相關應用尚未被充分探索。對於提示、破解和可及性仍有許多學習空間。
批評者則指出Meta在LLM的廣泛發展,暗示勒昆的言論是為了壓制競爭。正如一位用戶所言,「當一家大型公司的AI負責人說‘不要競爭’時,讓我更想競爭。」
勒昆作為目標驅動AI和開源系統的提倡者,在最近的《金融時報》採訪中指出,LLM缺乏邏輯推理,永遠無法達到人類智能水準。他強調:「它們不理解物理世界,缺乏持久記憶,無法有意義地推理,也無法層次化地計畫。」
Meta最近推出了其視頻聯合嵌入預測架構(V-JEPA),旨在識別和理解複雜的物體互動。這一創新與勒昆對於先進機器智能(AMI)的願景相吻合。
許多行業專家也呼應勒昆對LLM局限性的觀察。AI聊天應用Faune稱讽他所提出的見解「驚人」,強調封閉系統存在顯著的僵化。「創造出能像人類一樣學習和適應的AI的創作者,可能會榮獲諾貝爾獎。」他們指出。
其他人則強調業界對LLM的「過度強調」,認為它們是實現真正進展的絕路。有些人甚至將LLM視為高效連接系統的工具,類似電話接線員。
勒昆並不陌生於爭議。他曾與其他AI先驅喬弗里·辛頓(Geoffrey Hinton)、安德魯·吳(Andrew Ng)和約書亞·本吉奧(Yoshua Bengio)就AI存在的風險展開激烈辯論,經常主張這些擔憂被過度誇大。
一位評論者回憶起與辛頓的最近一次訪談,辛頓在訪談中強調全面投入LLM,並提出人類大腦與AI大腦之間存在密切關聯。「觀察如此根本的分歧真的很有趣。」該用戶評論道。
這種觀點的衝突在短期內恐怕難以解決。