Meta的首席人工智能科学家Yann LeCun对一些主要AI领导人因担心AI可能对人类构成生存威胁而呼吁监管的做法表示强烈批评。这正值英国即将召开首届全球AI峰会之际。在X(原推特)上的一篇帖子中,LeCun直言不讳地驳斥了这些末日情景,称其毫无依据。他说:“你们传播的末日恐惧是荒谬可笑的。强大的AI系统在明确的目标指导下,并结合适当的防护措施,都是安全可控的,因为我们设定了这些参数。”
LeCun指出,目前的自回归语言模型(LLM)缺乏这些指导目标,警告人们不要将当前的局限性延伸到未来的AI系统中。他还指责三家主要AI公司的领导人——OpenAI首席执行官Sam Altman、谷歌DeepMind首席执行官Demis Hassabis和Anthropic首席执行官Dario Amodei——密谋维持封闭的AI模型,声称“Altman、Hassabis和Amodei在激烈的企业游说中处于前沿,旨在控制AI行业的监管框架。”
他对自己在图灵奖中的同行们也发出了挑战,尤其是麻省理工学院教授Max Tegmark,以及Geoff Hinton和Yoshua Bengio,称他们无意中给那些推动限制开放AI研究及发展的力量提供了口实。LeCun主张开放AI研究是普及技术获取的关键,强调Meta采取的开放源代码倡议,以其旗舰大型语言模型Llama 2为例。
尽管美国政府对开放源代码AI可能助长恶意行为表忧虑,LeCun坚称限制AI模型的访问是适得其反的。他表示:“如果你的恐惧驱动运动成功,最终将导致灾难:少数公司对AI的集中控制。我们大多数学术同仁明确支持开放AI研究,很少有人支持你们所呈现的末日情景。”
LeCun认为,开放的AI平台应该是行业的常态,以促进多样化的贡献和民主参与。“在一个AI系统承载着人类集体知识与文化的未来,保持平台的开源和可获取性至关重要。这种开放性是充分反映人类经验与洞察的关键,”他解释道。“贡献必须是众包的,类似于维基百科,而这在没有开放平台的情况下是不可行的。”
他警告称,严格的监管可能会扼杀开放源代码AI,导致少数西海岸美国和中国公司的垄断。“这将对民主和文化多样性产生何种影响?这才是我真正关心的。”
LeCun的批评出现在即将召开的英国峰会报告中,该峰会主要关注AI带来的风险。对此,他在推特上调侃英国首相,称其感染了“来自AI的生存悲观风险妄想症(EFRAID)”的病例,开玩笑希望这种病不会蔓延到其他世界领导人。尽管受邀参加峰会,他的言论引发了与Tegmark的辩论,进一步激发了对这一话题的讨论。
在Hinton(常被称为“人工智能教父”)于10月27日警告企业计划在不久的将来开发利用指数级计算能力的新模型后,这一讨论愈发 intensifies。Hinton担心缺乏对其能力的监管,而LeCun对此回应,强调如果未来的AI系统遵循现有架构,尽管可以达到高水平的知识,它们仍然缺乏推理、创造力和对物理世界的理解。
“未来的系统必须采用创新架构,使其能够在定义的目标和防护措施内进行推理、计划和操作,”他坚决表示。“这些目的明确的框架将确保安全和控制,因为我们定义其目标,防止任何主导性的意图。”他坚决不同意先进AI系统必然会寻求超越人类的观点,认为这种看法根本上是错误的。