全球各国政府正积极探索措施,以减轻与人工智能(AI)相关的风险,但专家们对于有效控制的可行性仍持怀疑态度。最近在英国举行的人工智能安全峰会吸引了来自美国、中国、欧盟、英国及其他25个国家的领导者,共同致力于应对虚假信息以及故意和非故意的伤害等问题。
然而,峰会上提出的雄心勃勃的目标并非完全现实。Domino数据实验室的数据科学战略负责人Kjell Carlsson表示:“人工智能涵盖了从专家系统到传统机器学习,最近还有生成性人工智能的一系列技术。这种多样性使得制定能够充分监管所有这些技术及其众多应用的法规变得复杂。”
安全的推动
在峰会期间,政策制定者强调了持续进行AI研究的重要性,通过布莱奇利宣言聚焦于安全。此举正值多位知名人士对AI潜在威胁发出严厉警告之际,涉及从生存风险到显著的就业替代问题。然而,一些专家认为,此类末日预言被夸大或渲染。Meta的首席AI科学家Yann LeCun在社交平台X(前身为Twitter)上表示:“AI悲观主义正迅速变得无可分割,仿佛是一种末世宗教。”
布莱奇利宣言强调:“人工智能(AI)带来了巨大的全球机遇:它有潜力改变并提升人类的福祉、和平与繁荣。”该宣言呼吁采用以人为本、值得信赖和负责任的方式设计和实施AI技术,倡导国际合作以根据科学证据识别并理解AI风险。
宣言指出:“AI带来的许多风险本质上是国际性的,因此最好通过国际合作来解决”,强调各国共同承担的责任。
个体行动与怀疑
为响应这些全球努力,各国政府也在采取措施监管AI。峰会前,拜登总统签署了一项行政命令,旨在促进政府机构、企业与学术界的合作,以指导AI的负责任发展,同时保护就业和消费者隐私。他表示:“我的政府无法——也不会——容忍使用AI来对那些经常被剥夺平等机会和正义的人造成不利影响。”
然而,AI法规专家Milan Kordestani对现有提案的不足表示担忧,认为没有充分应对涉及的风险。他批评拜登的行政命令表述模糊,指导联邦机构实施AI保障措施却没有具体细节。“拟议的法规未能限制私营部门的行为,也未考虑个人如何与AI技术互动,”他认为。他进一步强调,需要引入能够促进学术界对AI风险进行讨论的法规。
Kordestani认为,有效的AI监管应超越对技术本身的关注,涵盖对社会的更广泛影响,包括劳动力动态、分配网络和认知过程的变化。“上世纪80年代末的立法者无法预见到社交媒体上监管虚假信息的必要性。同样,AI监管必须动态演变,以持续应对新兴的风险,”他说。
全球挑战与伦理关注
AI监管的挑战在于其全球性。Modulus首席执行官Richard Gardner将AI监管比作核武器的控制。他指出:“在国家边界内监管AI极为复杂,因为对抗国可能仍会继续开发AI技术,尽管有国际协议。”不受监管的开发者创建AI产品的可能性使问题更为复杂。
针对版权材料,Gardner倡导使用robots.txt文件——一种指示搜索引擎机器人如何访问网站的标准协议——来规范AI训练和数据使用,确保保护材料不被包含。“我们必须允许创新者自由追求研究和开发,”他强调,但他也提醒,不应出台过度监管措施以免妨碍创新。
定义AI的伦理标准并非易事。目前的国际人权法律可以为挑战人工智能应用奠定基础,但迫切需要将这些权利转化为切实可行的具体法规。AI与应用安全专家Rob van der Veer指出:“现有隐私法规对使用个人数据的AI系统的目的设限,但安全法规往往忽略了AI工程引入的新脆弱性。”
适应不断演变的环境
鉴于AI技术的快速进展,监管必须是一个持续的过程,需要对新兴的进展进行持续评估。Kordestani建议,这可能需要新立法或国际条约来适应创新的培训方法和应用。各国政府应与企业合作,在推动创新与确保AI发展的安全性之间取得平衡。
此外,在这一讨论中引入学术界的参与至关重要,以确保从道德和伦理的角度保护公众安全,促进关于公平获取、数据伦理和社会偏见的对话。最终目标是保护公民免受AI在日常生活各个方面可能带来的威胁。
Kordestani警告,恶意行为者可能利用AI从事不法活动,强调了加强国际法规的必要性。“建立一个涉及公共、私人和学术部门的多方合作模式,对于应对当前及新兴威胁至关重要,”他说。
Carlsson提倡针对具体使用案例的有针对性监管,而不是对所有AI技术采取一刀切的措施。例如,针对深度伪造技术用于欺诈的误用进行处理,可能比普遍要求在生成性AI输出上加水印更为有效。
虽然监管必然落后于最新的AI发展,但为创建一个响应迅速的框架至关重要,以确保人类考量始终处于AI创新及其社会整合的前沿。