全球领导者竞相制定人工智能监管政策,构建更安全的未来

人工智能的发展速度在过去一年间无疑加快了。技术的进步使得人工智能超越人类智能的设想,从科幻小说变成了一个可能在不久的将来实现的现实。图灵奖得主杰弗里·辛顿在五月表示,人工智能实现与人类智力相当的时间表预计为2028年,而不是先前预期的50到60年。DeepMind的联合创始人肖恩·莱格对此也持相似观点,他认为到2028年实现通用人工智能(AGI)的可能性为50%。AGI指的是人工智能能够以人类水平的能力或更高水平执行任何智能任务,超越当前的狭窄聚焦。

这一迫在眉睫的可能性引发了关于人工智能伦理影响和监管未来的激烈辩论,讨论的范围从学术界扩展到了国际政策领域。各国政府、行业领导者和公众正在面对可能影响人类未来的关键问题。

针对这些担忧,已经发布了一些重要的监管公告,但在具体影响和有效性方面仍存在重大不确定性。

人工智能的生存风险

对于人工智能可能带来的变化,尚无共识,但讨论中提到了人工智能可能带来的风险。OpenAI首席执行官山姆·奧特曼在五月的国会听证会上表达了对这一技术潜在风险的担忧,强调“如果这项技术出错,后果将非常严重”,强调政府合作以防止此类结果的必要性。

奥特曼的观点与人工智能安全中心在五月发表的一致,后者指出,全球应将降低人工智能引发的灭绝风险作为优先事项,类似于应对大流行病和核威胁。这一观点在社会对人工智能生存风险的恐惧达到高峰时得到了广泛关注。

行业中的怀疑声音

然而,一些行业领导人对极端的末日场景表示怀疑。前谷歌大脑负责人安德鲁·吴批评人工智能可能导致人类灭绝的观点,认为这似乎是大型科技公司推进繁琐监管的借口,这些监管可能会抑制竞争。吴警告说,这种监管会不公平地使小型企业处于劣势。

Meta首席人工智能科学家、图灵奖得主扬·勒让更进一步,指责奥特曼及其他科技领导人基于夸大的担忧进行“庞大的企业游说”,认为这将导致有利于少数大公司的监管,边缘化开源项目。

加快监管步伐

尽管观点分歧,监管趋势正在加速。在七月,美国白宫宣布多家人工智能企业,包括OpenAI、Anthropic、Alphabet、Meta和微软,承诺在公开工具发布前开发安全测试协议。截至九月,已有15家公司签署了这一承诺。

白宫最近颁布了一项专注于“安全、可靠和值得信赖的人工智能”的行政命令,旨在平衡创新与监管。这项命令要求联邦机构遵循针对多个领域(包括国家安全和医疗保健)的广泛指导方针,同时要求人工智能公司共享安全测试结果。

国际人工智能政策倡议

值得注意的是,美国的人工智能治理是更广泛国际对话的一部分。最近,七国集团(G7)推出了11项非约束性人工智能原则,呼吁开发先进人工智能系统的组织遵循“安全、可靠和值得信赖的人工智能”国际行为准则。

英国也举办了人工智能安全峰会,汇集全球利益相关者共同应对人工智能风险,特别是前沿人工智能系统。此次活动以《布莱奇利宣言》为高潮,由包括美国和中国在内的28个国家的代表签署,警告先进人工智能系统可能带来的风险,并承诺负责任地发展人工智能。

尽管该宣言没有设定具体的政策目标,但专家们认为这是在这一紧迫全球问题上进行国际合作的有希望的基础。

在创新与监管之间取得平衡

随着我们迈向专家们所预见的里程碑,人工智能发展的风险显而易见。从美国到七国集团及其他国家,建立监管框架已成为重中之重。这些初步努力旨在降低风险,同时促进创新,尽管在有效性和公平性方面仍存在疑问。

人工智能是一个全球关切。未来几年对于平衡人工智能的积极潜力,如医疗和气候行动的发展,以及确保伦理标准和社会保障至关重要。在这一多层面的挑战中,各国政府、企业、学术界和草根运动之间的协作将是塑造人工智能未来的关键,影响的不仅是科技领域,更是人类社会的整体发展轨迹。

Most people like

Find AI tools in YBX