英国首相里希·苏纳克强调了对人工智能(AI)采取平衡视角的必要性,他正为11月1日至2日即将召开的AI安全峰会做准备。在国家主要科学机构——英国皇家学会,他承认AI存在重大风险,尤其是恶意使用的可能性。然而,他呼吁避免过于悲观的态度。
苏纳克指出:“目前,开发AI的机构也是负责测试其安全性的机构,甚至他们对模型未来能力的理解也往往不完整。为了快速创造最先进的模型,竞争带来了激励,这让我们对是否应该信任他们自我评估结果产生疑问。”
他反对过于急躁的监管措施,认为这可能会抑制创新。他表示:“我们如何能围绕我们尚不完全理解的事务制定有效的法律?相反,我们正在政府内部培养世界领先的能力,以理解和评估AI模型的安全性。”与欧盟相比,英国政府在AI立法方面的措施明显宽松,通过一份白皮书阐明要求,并将具体领域的规则制定权委托给监管机构。
在六月份的AI峰会伦敦会议上,英国的AI部长表示即将出台的法规将配合技术标准和保障措施,预示着监管将可能加强。
合作的AI安全策略
苏纳克表达了同其他国家在AI安全方面合作的意愿,而非采取对抗姿态。他指出邀请中国参加峰会的重要性,尽管与美国的紧张关系依然存在。他强调:“一项严肃的AI战略必须与世界领先的AI大国对话。”
中国对其AI企业实施了严格的监管,规定新的生成性AI模型在向公众发布之前需接受国家数据监督机构的安全审核。然而,中国政府表示愿意参与国际AI监管讨论,尽管习近平主席强调关注国家安全。
副首相奥利弗·道登确认中国已接受峰会邀请,但强调需要等待所有潜在参与者的确认。
苏纳克希望峰会能增进对AI风险的共同理解,并就这些挑战达成首个国际声明的共识。他设想建立一个“真正全球性的AI专家小组”,该小组由参会国和组织提名,负责发布全面的《AI科学现状》报告。
“我们的成功依赖于与AI公司的合作。随着技术进步,我们必须确保对风险的共同理解也随之适应。”他表示。这一倡议与联合国秘书长安东尼奥·古特雷斯关于建立全球监管机构以监控AI安全的呼声相一致,类似于国际原子能机构(IAEA)的框架。
行业观点与关注
在苏纳克推动英国成为领先AI超级大国的过程中,政府已投入1.2亿英镑用于设立一个AI顾问小组,其中包括图灵奖得主约书亚·本吉奥。峰会将汇聚众多行业领导者,包括OpenAI首席执行官山姆·奧特曼和谷歌DeepMind首席执行官德米斯·哈萨比斯,以及美国副总统卡马拉·哈里斯等高层政治人物。
剑桥咨询公司AI负责人玛雅·迪伦强调了在AI革命中合作的必要性,指出:“挑战不仅在于拥抱AI,更在于理智地引导其发展。这场革命应将商业成功与社会福祉相结合,真正需要合作。”
KPMG英国的连接技术负责人保罗·亨宁格指出,尽管峰会可能促进合作风险评估策略,组织也期待随着技术发展获取定期更新。
尽管峰会的目标雄心勃勃,但Cloudera EMEA地区首席技术官克里斯·罗伊尔斯对此持审慎态度,他认为全面的监管规定是个高远的理想。他建议企业应专注于使用可信数据源对其AI模型进行训练。Trellix总经理法比安·雷赫同样主张在AI开发中优先考虑安全措施,以增强信心并保护免受网络威胁。
突出AI风险
在苏纳克发言之前,英国政府发布了一份报告,列出了潜在的AI风险,包括:
- 社会伤害:信息误导和深度伪造、因自动化导致的失业、以及可能导致不公正结果的算法偏见。
- 滥用风险:AI技术可能助长武器的制造或增强网络攻击和虚假信息工作的有效性。
- 失控风险:人类可能将决策权转交给不受控的AI系统以及寻求扩大影响力的高级代理。
该报告还列出了可能加大这些风险的普遍挑战,例如设计安全AI系统的复杂性、评估其安全性的问题,以及在其部署中确保问责制。
在对该报告的回应中,Deployteq首席执行官斯尤尔·范·德·吕表示赞赏英国政府对AI安全的认真态度,承认AI为各行各业带来了重要机遇,但前提是需要有效的监管与政策制定者的指导。