OpenAI宣布启动其最新“前沿模型”的培训,并建立了一个新的安全与保障委员会。该委员会由董事会成员布雷特·泰勒担任主席,其他著名成员包括亚当·丹吉洛、妮可·塞利格曼,以及现任首席执行官山姆·奧特曼。
在最近的一篇博客文章中,OpenAI表示:“我们已开始培训下一个前沿模型,旨在提升我们朝人工通用智能(AGI)发展的能力。虽然我们为推出行业领先的专注于性能和安全的模型感到自豪,但在这一关键时刻,我们鼓励开放讨论。”
90天的评估期
OpenAI已明确委员会的首要任务:“安全与保障委员会的首个任务是评估和完善OpenAI的流程和安全措施,时间为90天。期末,委员会将向全体董事会提交建议。之后,OpenAI将根据安全和保障协议公开沟通所采纳的建议。”
这意味着,新前沿模型—可能命名为GPT-5—至少在90天内不会推出,以便委员会有足够的时间评估现有的流程和保护措施。因此,董事会预计将在2024年8月26日之前收到这些建议。
为什么是90天?
尽管OpenAI没有具体说明这一时间框架的原因,90天通常是业务评估和反馈的标准期限,能平衡不宜过短也不宜过长。
委员会独立性的担忧
新委员会的成立引发了批评,因为其成员主要是OpenAI高管,令人关注其安全评估的独立性。OpenAI董事会的组成历来备受争议。2023年11月17日,这家非营利控股公司的前董事会意外解雇了奥特曼,声称他表现“不够坦诚”。这一举动导致员工的强烈反对和主要投资者的批评,包括微软的干预,使奥特曼在四天后得以重新上任。此前,董事会的全男性构成也饱受审视,随即进行了重组。
在今年3月8日,新董事成员如苏·德斯蒙德·赫尔曼和菲吉·西莫的加入,显示出多元化领导的努力。
OpenAI面临的挑战与机遇
OpenAI最近推出了其最新AI模型GPT-4o,但随之而来的批评声不绝于耳。女演员斯嘉丽·约翰逊公开指责该公司使用了类似于她的AI声音,与她在电影《她》中的角色相关。OpenAI澄清称,该声音是独立委托制作,并非意图模仿约翰逊。
此外,首席科学家伊利亚·苏茨凯弗的辞职,以及超级对齐团队的共同领袖的离职,引起了人们的担忧,后者强调在安全和“炫目产品”之间的优先化趋势令人不安,最终导致超级对齐团队的解散。
尽管面临挑战,OpenAI在主流媒体中成功建立了新的合作关系,以获取培训数据,并在其索拉视频生成模型中获得了娱乐行业的关注,寻求利用AI提高生产效率。
随着OpenAI在这些动荡中前行,新的安全与保障委员会在解决利益相关者,特别是监管者和潜在合作伙伴的关切方面,将发挥至关重要的作用,尤其是在即将推出的新模型面前。