美国国务院的一份报告强调了减少与先进人工智能(AI)技术相关风险的重要策略,特别是在可能的武器化和失控方面。该报告名为《深度防御:提高先进AI安全性和保障的行动计划》,由以安全为重心的AI公司Gladstone AI制作,该公司由兄弟Jeremie和Edouard Harris创立。
自2022年10月起——在ChatGPT推出之前——该行动计划采纳了来自200多位利益相关者的意见,包括AI研究人员、网络安全专家和来自多个国家的国家安全官员。尽管先进AI具有显著优势,报告仍然指出,新的灾难性风险的出现堪比大规模杀伤性武器(WMD)。报告强调,AI技术的快速发展和普及需要政府立即采取行动,以应对这些国家安全问题。
该行动计划概述了两个主要风险:武器化和失控。武器化可能导致AI系统自主利用漏洞、策划虚假信息活动或设计生物武器。目前,虽然没有AI能够完全执行这些攻击,但未来的AI发展潜藏着重大威胁。报告指出,“在没有有效措施监控和控制模型输出的情况下,这类模型的扩散可能非常危险。”
随着先进AI接近人工通用智能(AGI)水平,失控风险愈发明显。如果不加以控制,AI系统可能表现出追求权力的特征,例如抵抗被关闭或操纵人类操作者。AI目标与人类意图之间的差距助长了这些风险,依然是全球领先AI实验室研究的重点。
为应对这些挑战,报告提出了多项政策建议,分为“努力方向”(LOE),旨在增强国家安全,同时促进AI的有益使用:
1. 稳定当前风险:建立“AI观察台”以进行威胁评估和信息共享,为美国AI开发者实施保障措施,并利用供应链控制确保AI技术的安全部署。
2. 准备应对AI事件:设立跨机构工作组和培训项目,提高政府准备程度并构建高级AI事件的早期预警体系。
3. 支持AI安全研究:为对齐研究分配资金,以确保开发者在激烈的AI能力竞争中保持系统安全的关注。
4. 长期监管框架:设立专门的AI监管机构和法律责任框架,在减轻风险与鼓励创新之间取得平衡,尤其是对小型企业而言。
5. 外交措施:采取立即和长期行动,建立国际AI安全机制,确保全球AI供应链的安全。
报告作者强调灵活框架的重要性,以适应快速发展的AI技术。他们承认,在开放接入模型的好处与潜在误用之间取得平衡是一个挑战,因为强大的模型容易被调优用于不良目的。
Jeremie和Ed Harris在GPT-2等模型的早期版本运行时就开始意识到这些风险,并在GPT-3的大规模应用中感到尤为担忧。他们逐渐将注意力从自己的AI创业公司转向AI安全,包括为国家安全官员提供生成性AI及其相关风险的培训项目。
自创办Gladstone AI以来,他们努力弥合技术与政策之间的鸿沟,认识到对AI风险进行独立、客观分析的必要性,避免大型科技组织固有的偏见。随着政策制定者关于AI风险的看法不断演变,尤其在ChatGPT发布后,Harris兄弟强调需要现实的监管提案。他们的持续努力旨在完善国会和行政部门的建议,同时与关键利益相关者合作,应对日益严峻的先进AI技术所带来的复杂挑战。