山姆·奧特曼:新款OpenAI模型首度接受美国政府安全检查

在对先进人工智能系统安全性的关注日益增加之际,OpenAI首席执行官山姆·奧特曼宣布,该公司下一个主要的生成式人工智能模型将在发布前接受美国政府的安全检查。

奥特曼在X平台上表示,OpenAI已与美国人工智能安全研究所(AI Safety Institute)合作,达成一项协议,允许该机构提前接触其新的基础模型。该合作旨在推进人工智能评估科学,并确保采取严格的安全措施。

OpenAI的安全承诺

奥特曼强调,OpenAI已修订了不贬损政策,使现有及前员工可以自由表达对公司实践的担忧。此外,该公司承诺至少将20%的计算资源用于安全研究。

美国参议员的关注

随着OpenAI在人工智能行业中日益崭露头角,产品如ChatGPT和新推出的SearchGPT,其快速发展策略引发了争议。批评者,包括前安全领导,指责该公司在追求快速进步上忽视了安全。

对此,五位美国参议员最近致信奥特曼,质疑OpenAI对安全的承诺,并对对前员工的报复指控表示关切,他们认为持续的安全问题似乎与OpenAI所宣称的负责任的人工智能发展承诺相悖。

OpenAI领导层的回应

据彭博社报道,OpenAI首席战略官贾森·权回应表示,公司任务是开发服务于人类利益的人工智能。他强调OpenAI致力于在各项流程中实施严格的安全措施,并保持与员工的透明沟通。

贾森重申,计划将20%的计算能力用于安全研究,撤销不贬损条款以促进开放对话,并与人工智能安全研究所合作,确保安全的模型发布。

奥特曼在X平台上进一步重申了这一承诺,尽管未透露与人工智能安全研究所合作的具体细节。

共同努力确保人工智能安全

人工智能安全研究所是美国国家标准与技术研究所(NIST)的一部分,成立于英国AI安全峰会,旨在应对与先进人工智能相关的潜在风险,包括国家安全和公共安全问题。该机构与包括Meta、苹果、亚马逊、谷歌和OpenAI在内的100多家科技公司合作,推动人工智能发展的安全性。

值得注意的是,OpenAI并不仅仅与美国政府合作,还与英国政府建立了类似的安全审查协议。

安全关注加剧

随着时间的推移,安全担忧在5月达到高潮,当时OpenAI超级对齐团队的共同领导伊利亚·苏茨基弗和扬·莱克突然辞职。莱克公开批评公司优先考虑炫目的产品而忽视基本安全措施。

在他们离职后,报告称超级对齐团队已解散。尽管面临这些挫折,OpenAI仍继续发布新产品,并通过内部研究和成立新安全与安全委员会来加强其安全承诺。该委员会由OpenAI董事会主席布雷特·泰勒担任,包括著名成员如Quora首席执行官亚当·丁格洛和前索尼全球总顾问妮可·塞利格曼。

通过这些努力,OpenAI旨在应对围绕先进人工智能技术的关键安全问题,努力在创新与负责任的发展之间找到平衡。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles