OpenAI解雇首席执行官山姆·奧特曼的原因解析

在山姆·奧特曼被意外解职三天后,人工智能界陷入了困惑与不安之中。科技巨头埃隆·马斯克在社交平台X(前推特)上向OpenAI首席科学家伊利亚·苏茨克夫提出了关键问题:“你们为什么采取如此激烈的行动?如果OpenAI正在做对人类潜在危险的事情,世界需要知道。”

据报道,苏茨克夫在奥特曼被解职的过程中发挥了重要作用,他对OpenAI技术的快速商业化表达了担忧。在几个月前,该组织实现了一项重大突破,使其能够开发更强大的AI模型,《信息周刊》对此进行了报道。这一进展引起了苏茨克夫和非营利母公司董事会的警觉,他们担心现有的保障措施不足以抵御这些先进模型带来的潜在后果。在他们看来,唯一的解决方案就是解除奥特曼的职务,因为他被视为加速商业化的主导力量。

这项突破被称为Q*(Q星),标志着人工智能发展的一个关键技术里程碑。它使模型能够解决以前从未遇到过的基本数学问题。目前的生成型AI系统的结果因输入提示而异,而数学则有唯一正确的答案。这一进展表明,人工智能可能正接近与人类智能相当的推理能力,路透社对此进行了报道。

这种进展的含义使得人工智能更接近实现人工通用智能(AGI),即机器能够像人类一样进行推理。然而,在AI领域内,已经出现了分歧。一方由被称为AI教父的人士主导,警告AGI给人类带来的生存风险,呼吁加强监管。

与此截然相反的是,Meta首席AI科学家扬·勒孔坚决反对这一观点。他公开驳斥了对Q*的担忧,称这些担忧是“完全的 nonsense”,并声称许多领先的AI实验室,如FAIR、DeepMind和OpenAI,也在探索类似的路径,并已分享了相关发现。

勒孔坚定地反对AGI会导致人类灭亡的观点。他指出,拥有超级智能并不意味着一个实体必然要支配那些低于它的智能。他将此与公司结构进行比较,认为领导者往往管理比自己更聪明的团队,因此,较高的智力并不等于渴望征服。

他进一步强调,机器缺乏社会本能,不会有支配人类的野心。他在最近一次在线讨论中表达:“智力与支配欲无关。”相反,他认为超级智能AI将成为增强人类能力的有益伙伴。

总结他对AGI的看法,勒孔提出以下几点:

- 超人类AI在未来必将出现。

- 这些AI系统将在人类控制之下。

- 它们不会对人类构成威胁或试图伤害我们。

- 它们将促进我们与数字世界的互动。

- 因此,它们必须作为开放平台运作,允许来自不同创造者的贡献以便训练和改进。

随着关于AI进展影响的讨论的持续展开,潜在风险与乐观机遇之间的辩论仍然至关重要。技术与人类智能的未来交汇点将最终决定人工智能在社会中的角色走向。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles