OpenAI,开发ChatGPT的人工智能实验室,近日推出了“应对框架”,这是一个全面的过程和工具集,旨在监测和减轻与日益强大的人工智能系统相关的风险。
此次公告是在OpenAI经历了一系列动荡之后作出的,特别是在有关首席执行官山姆·奧特曼的争议性解雇和随后的复职事件后。这一事件引发了人们对实验室治理和问责制的担忧,尤其是在OpenAI开发全球最先进的人工智能技术方面的角色。
应对框架的关键要素
根据OpenAI博客的介绍,应对框架旨在解决这些风险问题,强调实验室对伦理人工智能开发的承诺。该框架概述了跟踪、评估、预测及防范高级模型可能带来的灾难性风险的方法,这些风险可能被利用于网络攻击、大规模操控或自主武器。
数据驱动的人工智能安全
框架的一个基本方面是为人工智能模型实施风险“评分卡”,评估潜在危害的各种指标,包括功能、脆弱性和影响。这些评分卡会定期更新,并在达到风险阈值时触发审查和干预。
动态框架
OpenAI将这一框架描述为动态和不断发展的,承诺根据新数据、利益相关者反馈和研究进行完善和调整。实验室打算在更广泛的人工智能社区中分享其发现和最佳实践。
与Anthropic的比较分析
此公告与竞争对手Anthropic的最新发展同时发布。Anthropic是由前OpenAI研究人员创立的,推出了其“负责任的扩展政策”,该政策详细列出了人工智能安全级别及相应的模型开发协议。
这两个框架在结构和方法上存在显著差异。Anthropic的政策形式化且具有指令性,直接与模型能力相连,而OpenAI的框架则提供了更灵活和自适应的方式,设立一般风险阈值,当达到时启动审查,而不是严格的规定。
专家指出,两个框架各有利弊。Anthropic在激励遵守安全标准方面可能更具优势,因为其政策将安全措施纳入开发过程。相比之下,OpenAI的框架相对自由,允许更大的人为判断,这可能导致变量的出现。
观察人士认为,OpenAI或许在安全协议方面跟不上进度,尤其是在对快速推出像GPT-4这样的高级语言模型的公众反响后。Anthropic在安全方面的主动措施可能为其提供竞争优势。
结论
总的来说,这两个框架在人工智能安全领域都标志着重要进步,这一领域往往被对先进人工智能能力的追求所掩盖。随着人工智能技术的快速发展,各大实验室在安全措施上的合作与协调显得至关重要,以确保人工智能的伦理和有益应用造福人类。