欧盟人工智能法案概述
2023年12月8日,欧盟决策者达成了一项重要里程碑,正式通过《人工智能法案》,使其成为全球首个全面的人工智能监管框架。自2021年4月启动的立法过程即将完成,法案将改变全球人工智能的治理模式,开启“布鲁塞尔效应”,并提升全球人工智能标准。
目前,《人工智能法案》的官方文本正在进行最终修订,预计将于2024年4月正式通过,并于2026年分阶段实施。
什么是《人工智能法案》?
《人工智能法案》是欧盟委员会于2021年推出的一项法律框架,旨在确保人工智能系统在欧盟市场的安全、问责和透明。该法案采用风险导向的方式,针对人工智能的开发者、分销商、进口商和用户,详细评估其可能带来的负面影响。风险越高,监管要求越严格。这部法案类似于欧盟的《通用数据保护条例》(GDPR),对全球隐私标准产生了深远影响。
受影响的主体
《人工智能法案》明确了多种参与人工智能生态系统的主体,包括开发者、分销商和用户。值得注意的是,即使公司总部位于欧盟之外,只要其人工智能系统影响欧盟内用户,也可能受到此法案的管辖。例如,一家南美公司开发的影响欧盟居民的人工智能系统,仍需遵循该法案的规定。
该法案不适用于军事或国家安全应用,但设定了对执法机关使用远程生物识别系统的严格条件。
在2023年6月,欧盟议会通过了一份草案,明确了两个关键角色:
- 提供者:人工智能系统的开发者,无论是免费还是收费。
- 部署者:为专业或商业目的使用人工智能系统的实体,之前称为“用户”。
合规责任主要由提供者承担,但由于用户数量庞大,尤其在高风险系统中,部署者在管理相关风险时将发挥关键作用。
人工智能风险分类
《人工智能法案》将人工智能系统划分为四种风险类别,以保护最终用户的权益和安全:
1. 不可接受的人工智能:完全禁止威胁民主价值或人权的技术,如社会信用系统和侵入性生物识别监控。
2. 高风险人工智能:可能对基础设施、就业和公共健康等领域造成重大影响的系统。开发者需遵循严格要求,包括合规评估和网络安全协议。
3. 低风险人工智能:如聊天机器人等,需告知用户内容为人工智能生成。
4. 最小或无风险人工智能:包括自动摘要和垃圾邮件过滤器等,通常对用户构成的风险较小。
不合规的后果
违反《人工智能法案》可能面临高额罚款,罚款额度从750万欧元或全球年收入的1.5%到3500万欧元或全球收入的7%不等,具体取决于违规的严重程度。2023年的议会版本设定了以下罚款标准:
- 不可接受的人工智能:最高可罚款全球年收入的7%。
- 高风险人工智能:最高可罚款2000万欧元或全球收入的4%。
- 通用人工智能(如ChatGPT):最高可罚款1500万欧元或全球收入的2%。
- 提供不准确信息:最高可罚款750万欧元或全球收入的1.5%。
如何应对《人工智能法案》
组织需制定全面的治理策略,以应对《人工智能法案》的要求。这包括建立健全的内部控制和供应链管理。开发或部署高风险人工智能系统的公司应考虑以下问题:
- 哪些部门在使用人工智能工具?
- 这些工具是否处理专有或敏感数据?
- 使用案例是否属于法案划定的风险类别?
- 公司是作为人工智能提供者还是部署者?
- 供应商协议中关于数据保护和合规的条款是什么?
欧盟推进人工智能法案将促使全球在人工智能风险管理方面进行重大变革。这一协议标志着企业在负责任和有效利用人工智能技术方面的转型时代即将来临。