OpenAI超级对齐团队在两位核心成员离职后是否面临生存危机?

伊利亚·苏茨克弗(Ilya Sutskever),前OpenAI首席科学家及联合创始人,昨天并不是公司唯一一位重要的离职者。他的离职后不久,OpenAI“超级对齐”团队的共同负责人扬·莱克(Jan Leike)在社交平台X上宣布辞职,并简单地写道:“我辞职了。”

莱克于2021年初加入OpenAI,他对公司在奖励建模方面的工作充满热情,尤其是希望将GPT-3与人类偏好对齐。2022年12月,他在自己的Substack账号“Aligned”中分享了他对OpenAI对齐策略的乐观看法。在加入OpenAI之前,莱克曾在谷歌的DeepMind人工智能实验室工作。

这两位领导者的离职引发了社交平台X上的讨论,特别是围绕OpenAI在控制先进AI系统方面的雄心,以及实现人工通用智能(AGI)的总体目标。AGI被定义为在经济上有价值的任务中,超过人类表现的人工智能。

什么是超级对齐?

大型语言模型(LLMs),如OpenAI的GPT-4o,以及谷歌的Gemini和Meta的Llama,运行机制复杂。为了确保这些模型可靠工作且不产生有害或无意义的回应,开发者必须将它们“对齐”至期望的行为,这涉及强化学习和近端策略优化(PPO)等机器学习技术。

超级对齐代表了对未来AI模型——即超级智能——进行更为深入的对齐努力,超越目前可用的技术。OpenAI在2023年7月宣布成立了超级对齐团队,强调管理AI开发和治理相关风险的紧迫性。

挑战在于如何确保超级智能AI系统遵循人类意图。目前的对齐技术依赖于人类监督,可能无法有效扩展至超越人类智能的系统。OpenAI已意识到这一问题,并承诺将20%的计算资源用于超级对齐工作,利用Nvidia等硬件提供的宝贵GPU。

超级对齐的未来如何?

随着苏茨克弗和莱克的离职,关于超级对齐倡议的未来出现了重要问题。OpenAI是否会继续承诺的20%计算能力用于该项目,还是会改变方向?观察者指出,苏茨克弗被认为是一位“悲观者”,尤其关注AI带来的生存风险,而CEO山姆·奧特曼及其他OpenAI成员似乎对这些威胁关注较少。

我们已联系OpenAI,寻求关于超级对齐团队未来的澄清,收到回复后将及时更新。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles