一封公开信于星期二发布,来自超过十位现任和前任OpenAI、谷歌DeepMind以及Anthropic的员工,强调了在缺乏有效监管框架的情况下,人工智能(AI)技术迅速发展的“严重风险”。研究人员警告称,未受监管的AI可能加剧现有的不平等,操纵信息,传播虚假信息,甚至可能导致对自主AI系统的失控,给人类带来严重后果。
签署人表示,通过科学界、立法者和公众的协作,这些风险可以被“有效缓解”。然而,他们对“AI公司存在强烈的财务动机以避免有效监管”的情况表示担忧,并认为不能完全信任这些公司引导强大技术的负责任发展。
自2022年11月ChatGPT推出以来,生成式AI迅速改变了科技领域,谷歌云、亚马逊AWS、甲骨文和微软Azure等主要云服务提供商在预计到2032年将达万亿市场的竞争中处于领先地位。麦肯锡近期的研究显示,截至2024年3月,近75%的受访组织已将AI整合进其业务中。另外,微软的年度工作指数调查发现,四分之三的办公室员工已在工作中使用AI工具。
然而,如前OpenAI员工Daniel Kokotajlo在与《华盛顿邮报》的对话中指出,一些公司采取了“快速行动并破坏”的心态,这种态度并不适合这种既强大又难以理解的技术。AI初创公司如OpenAI和Stable Diffusion在美国版权法方面面临挑战,而各种公开可用的聊天机器人也被操控生成仇恨言论、阴谋论和虚假信息。
这些担忧的AI员工表示,这些公司拥有关于其产品能力和局限性的“重大非公开信息”,包括潜在的危害风险及其安全措施的有效性。他们强调,政府机构仅通过“弱的共享义务”获得这一信息的一小部分,这使得公众普遍处于信息不明的状态。
“在缺乏政府对这些公司的有效监管的情况下,现任和前任员工成为了公众追究其责任的少数渠道之一,”该组织指出。他们批评科技行业依赖保密协议,以及现有举报者保护机制的执行不足。信中呼吁AI公司取消不贬损协议,建立匿名报告机制,让员工的关切得到公司领导和监管机构的重视,并确保公开举报者在内部渠道失效时不受到报复。