AI先锋Yann LeCun今日在巴黎VivaTech会议上引发热烈讨论,敦促下一代开发者远离大型语言模型(LLM)。
“这个领域被大公司主导,你们的贡献空间有限,”LeCun表示。“不如专注于超越LLM局限性的下一代AI系统。”
作为Meta首席AI科学家和纽约大学教授,LeCun的言论迅速引发了对当前LLM不足之处的关注。在社交平台X(前身为Twitter)上,他进一步阐述道:“我正在开发下一代AI系统,而非LLM。我实质上是在说,‘来和我竞争!’越多的思想参与其中,结果越好!”
尽管他呼吁行动,许多用户仍对“下一代AI”及其替代LLM的潜力表示好奇。开发者、数据科学家和AI专家在X上分享了多种观点,包括基于边界的AI、判别AI、多任务、多模态、分类深度学习、能量模型、目的性小语言模型、特定用例、自定义微调、状态空间模型,以及用于具身AI的硬件。一些用户甚至建议探索Kolmogorov-Arnold网络(KAN),作为神经网络的新进展。
一位用户列出了五种下一代AI系统:
- 多模态AI
- 推理与通用智能
- 具身AI与机器人技术
- 无监督与自监督学习
- 人工一般智能(AGI)
另一位用户建议,所有学生应掌握的基础知识包括:
- 统计与概率
- 数据整合与转换
- 经典模式识别(如朴素贝叶斯、决策树、随机森林)
- 人工神经网络
- 卷积神经网络
- 循环神经网络
- 生成式AI
相反,有人认为现在是学生参与LLM的最佳时机,因为应用仍有很大探索空间,许多有关提示、越狱及可及性的知识尚待学习。
批评者指出,Meta在LLM方面的广泛开发,认为LeCun的言论旨在抑制竞争。有用户调侃道:“当一家大公司的AI负责人说‘不要竞争’时,我更想去竞争。”
LeCun,作为目标导向AI和开源系统的倡导者,在最近的《金融时报》采访中指出,LLM缺乏逻辑推理,永远无法达到人类智力水平。他强调:“它们无法理解物理世界,缺乏持久记忆,无法进行有意义的推理,不能进行层级规划。”
Meta近期推出了视频联合嵌入预测架构(V-JEPA),旨在识别和理解复杂的物体交互。这一创新符合LeCun对先进机器智能(AMI)的愿景。
许多业内专家共鸣LeCun对于LLM局限性的看法。AI聊天应用Faune称赞他的观点为“精彩”,强调封闭式系统面临的重大局限性。他们表示:“能够像人类一样学习和适应的AI创造者,很可能获得诺贝尔奖。”
其他人提出,行业对LLM的“过分强调”被视为真正进步的死胡同。有些甚至称LLM不过是有效连接系统的工具,类似于电话交换操作员。
LeCun并非争议的陌生人。他曾与其他AI先锋Geoffrey Hinton、Andrew Ng及Yoshua Bengio就AI带来的生存风险进行了激烈辩论,常常认为这些担忧被夸大。
一位评论者回忆起与Hinton的最近一次访谈,Hinton主张全盘接受LLM,声称人脑与AI脑之间存在紧密关联。“观观察如此根本的分歧真是令人着迷,”该用户说。
这种观点的冲突短期内恐怕难以得到解决。