全球领导人重申了对应对人工智能(AI)风险与机遇的承诺。今天,七国集团(G7)——包括美国、欧盟、英国、加拿大、法国、德国、意大利和日本的主要工业国——宣布了针对开发先进AI系统的组织的国际行为准则。这一自愿性框架是五月份推出的“广岛AI进程”的延伸,旨在促进安全、可控和可信的人工智能。
与此同时,美国总统乔·拜登发布了关于“安全、可靠和可信的人工智能”的行政命令,欧盟也在完善《欧盟人工智能法》。此外,联合国秘书长成立了新的人工智能顾问委员会,由三十多位来自政府、科技和学术界的领导人组成,以支持全球人工智能治理。
G7表示,“我们强调先进AI系统,尤其是基础模型和生成式AI所带来的创新机会和变革潜力。然而,我们也意识到需要管理风险,以保护个人、社会及我们对法治和民主价值的共同承诺,始终将人类置于中心。”
为应对这些挑战,G7领导人提倡对人工智能进行“包容性治理”。
综合性的11点框架
G7发布了一项11点框架,以指导人工智能系统的负责任开发与部署。他们呼吁组织遵守这一准则,同时认识到各地可能采取独特的实施方式。
这11点如下:
1. 风险识别与缓解:在开发过程中实施措施,识别、评估和缓解风险,确保系统可信和安全。
2. 部署后监测:通过持续监测和透明报告,识别和解决漏洞以及不当使用问题。
3. 透明报告:公开先进AI系统的能力、局限性和适用性,并提供稳健的文档支持。
4. 负责任的信息共享:开放分享与安全和安全风险相关的评估报告和信息。
5. 治理政策:制定并公开有关个人数据和输出的AI治理与风险管理策略。
6. 安全控制:投资于物理安全、网络安全及防范内部威胁的措施。
7. 内容认证:实施可靠的内容认证方法,清晰地向用户披露与AI系统的互动情况。
8. 社会风险缓解:优先开展旨在降低社会、安全及安保风险的研究。
9. 应对全球挑战:集中AI开发解决气候变化、健康危机和教育等紧迫全球问题,同时促进数字素养。
10. 国际标准:推动国际技术标准和最佳实践的制定与采纳。
11. 数据输入保护:确保个人数据和知识产权的强有力保护,强调对训练数据集的透明度。
对动态环境的持续适应
G7强调,在AI的部署中,应维护法治、人权、公平和民主价值。先进系统不应妨碍民主原则或对安全和权利构成重大风险。
为保持相关性,该行为准则将根据来自政府、学术界和工业界的反馈进行调整,将这些原则视为“非详尽”和“动态”的文件。
G7领导人的目标是最大化人工智能的利益,同时降低全球层面的风险,特别是帮助发展中经济体弥合数字鸿沟,促进包容性发展。
全球领导人的支持
这一行为准则得到了其他全球官员的认可,包括欧洲委员会价值和透明度副主席维拉·尤若娃(Věra Jourová)。她表示:“可信、伦理、安全且保密——这就是我们所需的生成式人工智能。这个行为准则将使欧盟及我们的盟友在确保AI带来益处的同时,合理应对内在风险。”
欧洲委员会主席乌尔苏拉·冯德莱恩(Ursula von der Leyen)也鼓励AI开发者尽快签署和实施该行为准则,强调尽管面临挑战,AI仍能为公民和经济带来显著好处。