OpenAI董事会获得对AI模型发布的否决权:新监督措施实施

在近期董事会动荡后,OpenAI 正在强化监督机制,成立了专门的“应备团队”,专注于对其人工智能模型进行深入的安全测试。这一举措是在公司因首席科学家伊利亚·苏茨克弗对技术快速商业化及缺乏足够风险防控措施的担忧下,决定解除首席执行官山姆·奥特曼职务后的反响。五天后,面对员工强烈的不满,奥特曼被重新任命,这突显了员工支持在公司决策中的重要性。

为提升安全协议,OpenAI 的新应备团队将全面评估和压力测试基础模型。此团队所生成的报告将与OpenAI的领导层及新董事会共享。虽然领导团队会基于测试结果决定模型的推进,但新设立的董事会将拥有推翻这些决策的权力,表明审查过程更加严格。

OpenAI 在其最新博客中指出,安全技术工作对指导其安全模型的开发与部署至关重要。董事会的重组源于领导危机后的重大变化,成员人数将从三人扩展到九人,包括微软的非投票观察员。现有董事会成员包括前美国财政部长拉里·萨默斯、前 Salesforce 联合首席执行官布雷特·泰勒,以及 Quora 的联合创始人亚当·丹吉洛,后者是上一届董事会中唯一的续任成员。

OpenAI 明确使命:首要责任是服务人类,并致力于确保人工通用智能(AGI)的安全。新的“应备框架”旨在从模型部署中获取有价值的见解,有效减少新风险。OpenAI 强调,随着创新速度的加快,安全工作也必须加速,这需要通过持续的迭代部署进行学习。

在应备框架下,新团队将定期进行安全演练,确保对潜在问题的快速响应。同时,OpenAI 还计划邀请合格的独立第三方进行全面审计,以提升问责和透明度。

所有 OpenAI 模型都将根据每次计算能力翻倍的训练运行持续更新和评估。测试过程将涵盖网络安全漏洞、潜在滥用风险和自主决策能力,特别是与生物、化学或核威胁相关的风险。

模型将被划分为四个安全风险等级,类似于欧盟人工智能法案的分类系统,分别为低风险、中风险、高风险和关键风险。被评定为中等风险或更低的模型将适合部署,而高风险和关键风险的模型则需要进一步开发和预防措施。

目前,OpenAI 的应备框架处于测试阶段,随着新见解的出现,计划进行持续调整。这一前瞻性的做法体现了公司在确保人工智能技术进步与创新安全和道德考量方面的坚定承诺。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles