埃森哲(EY)最近发布的关于全球人工智能(AI)监管现状的报告在拜登总统推出旨在监控和规范AI风险的行政令后引起了广泛关注。该报告名为《人工智能(AI)全球监管现状:政策趋势与提升AI信任的考虑》,于上月发布,旨在为政策制定者和企业提供全面指导,澄清复杂的全球AI监管环境。
报告分析了加拿大、中国、欧盟、日本、韩国、新加坡、英国和美国等八个主要法域的监管活动。尽管这些地区在监管背景上各有不同,但在AI治理方面却有共同目标——降低风险、提升社会效益。同时,它们也遵循了2019年G20批准的经济合作与发展组织(OECD)AI原则,强调人权、透明度、风险管理和道德考量。
然而,报告也指出全球AI监管存在显著差异和挑战。欧盟采取了积极的姿态,提出AI法案,对高风险的AI应用(包括生物识别和关键基础设施)施加强制性要求。与此不同,中国正在监管内容推荐和人脸识别等核心AI功能,而美国则历史上采取较轻的监管方法,主要依靠自愿行业指南和领域特定法规。
全球AI监管环境持续演变。在EY报告发布后,拜登总统的行政令改变了美国的监管格局,要求对强大的AI系统进行强制的安全测试披露,并要求开发者向联邦政府通报国家安全和健康等潜在风险。这标志着监管策略从之前的自愿指导转变为更严格的要求。
此外,英国政府推出了一份AI白皮书,提出基于四个原则(比例性、责任性、透明度和伦理)的监管框架,与欧盟的模式紧密相连。
这些发展表明全球AI监管环境正在迅速变化,政策制定者和企业需要保持对新规的关注与适应。尽管EY报告是理解这一环境的重要资源,但随着新规则和新举措的出台,报告可能需要更新。
EY报告中提到的若干关键趋势和最佳实践在AI监管中依然相关:
- 根据特定使用案例和风险分析,采用风险基础的方法。
- 考虑特定行业的风险,例如医疗、金融和交通等领域的风险。
- 解决AI对相关政策领域(例如数据隐私和网络安全)的影响。
- 通过监管沙箱与利益相关者共同制定AI规则。
总之,EY报告强调政府官员、企业领导者和利益相关者之间持续对话的重要性,以在监管与创新之间找到平衡。它为应对AI监管的复杂性提供了路线图,并鼓励合作,以缩小AI信任差距、避免政策碎片化,充分挖掘AI的潜力。这份报告对任何希望理解全球范围内AI面临的伦理挑战和动态政策环境的人士来说,都是不可或缺的资源。