前OpenAI超对齐负责人批评公司:‘安全文化与流程被忽视’

本周早些时候,OpenAI的联合创始人及前首席科学家伊利亚·苏茨凯弗(Ilya Sutskever)与关键研究员简·莱克(Jan Leike)相继宣布辞职,这一事件引起了广泛关注。这不仅因为他们担任高级职位,还因为他们领导的超级对齐团队专注于开发管理超级智能AI模型的系统,这些模型的智力水平已超越人类。

在这两位高管离开后,媒体报道称OpenAI的超级对齐团队已被解散,最近《连线》杂志的一篇文章对此进行了强调,而我的妻子正好是该刊的主编。

今天,莱克在个人社交媒体上对OpenAI及其领导层提出了批评,指责他们将“炫目的产品”置于安全之上。他表示:“在过去几年中,安全文化和流程被淹没在了光鲜的产品之下。”

莱克于2021年初加入OpenAI,他承认与公司领导层存在分歧,可能指的是首席执行官山姆·奧特曼(Sam Altman)、总裁格雷格·布罗克曼(Greg Brockman)以及首席技术官米拉·穆拉提(Mira Murati)。他提到:“很长一段时间以来,我在公司的核心优先事项上与OpenAI的领导层存在分歧,直到我们最终达到了一个临界点。”

他强调了迫切需要解决如何引导和控制那些智力显著超过人类的AI系统的问题。

2023年7月,OpenAI承诺将20%的计算资源,具体而言是其强大的Nvidia GPU集群,分配给超级对齐项目。该项目旨在负责任地开发人工通用智能(AGI),在公司章程中定义为“在大多数经济价值工作中超越人类的高度自主系统”。

尽管有这一承诺,莱克表示失望:“我的团队一直在逆风前行。有时我们在计算资源上挣扎,完成关键研究变得愈加困难。”

对此,奥特曼在回应莱克的帖子时引用了他的观点,感谢莱克对OpenAI对齐研究和安全文化的贡献。他承认还需要更多的努力,并承诺将在未来几天内发布更详细的内容。

这一消息对OpenAI来说无疑是个打击,同时也与周一宣布的新款GPT-4o多模态基础模型,以及ChatGPT桌面版Mac应用的发布形成了对比。这对主要投资者和合作伙伴微软来说也是一大挑战,因为他们正准备附近将举行的Build开发者大会。

我们已联系OpenAI,要求就莱克的评论发表声明,届时将根据情况进行更新。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles