解读欧盟人工智能法案的不确定性:OpenAI争议中的洞察

欧盟人工智能法案(EU AI Act)被视为具有里程碑意义的立法,但目前因基础模型的监管问题面临不确定性。这些基础模型是指像GPT-4、Claude和Llama这样的大规模人工智能模型。

近期,法国、德国和意大利政府推动对基础模型进行有限监管,此举被许多人认为受到大型科技公司和开源公司(如Mistral)强大游说的影响。Cédric O,前法国数字部长,也在其中引导意见。批评者指出,这一立场可能会削弱欧盟人工智能法案的完整性。

呼吁加强基础模型监管的支持者强烈反对。德国及国际人工智能专家联盟,包括著名研究人员Geoffrey Hinton和Yoshua Bengio,最近发表公开信,敦促德国政府不要让这些模型免受欧盟人工智能法案的监管,并警告称,豁免将危害公共安全,损害欧洲企业利益。

此外,法国专家通过在《世界报》(Le Monde)发表联合社论,表达了对大型科技公司在立法最后阶段稀释该重要法案企图的强烈反对。

那么,为什么欧盟人工智能法案在这一重要阶段遭遇阻力呢?在最初草案提出两年半后,经历了广泛的谈判,该法案目前正处于三方会议阶段,欧盟立法者正在敲定法案细节。欧洲委员会希望在2023年底之前通过该法案,以期在2024年欧洲议会选举前完成立法。

近期OpenAI的动荡情况揭示了影响这些讨论的内部动态。因首席执行官Sam Altman被短暂解雇而发生剧烈董事会变动,公司的不同观点反映了欧盟人工智能监管的更广泛辩论。有些董事会成员优先关注商业机会和人工通用智能(AGI)的发展,而另一些则对高风险技术的安全隐患表示深切担忧。

主张谨慎的董事会成员与有效利他主义(Effective Altruism)运动有联系,该运动在欧盟人工智能法案的游说中也发挥了重要作用。报告显示,该社区已投入大量资源,提高人们对人工智能带来的生存风险的认识。

相对而言,大型科技公司,包括OpenAI,积极游说反对严格监管。Sam Altman虽公开主张全球人工智能治理,但也试图削弱欧盟拟议监管中的某些条款,以减轻公司合规压力。

Gary Marcus强调这些发展,认为OpenAI内部混乱证明了需要严格监管,而非放任大型科技公司自我监管。他支持欧洲议会分层次的监管方法,认为将欧盟人工智能法案关键部分简化为自我监管将导致严重的全球后果。

欧洲议会主要谈判代表Brando Benifei也表达了相似的看法,强调Altman行为的不确定性显示出依赖自愿行业协议的风险。

欧盟人工智能法案真的面临风险吗?德国顾问Benedikt Kohn表示,当前谈判至关重要,下次三方会议定于12月6日举行。他警告称,若未能达成协议,可能严重削弱欧盟作为全球人工智能监管领导者的愿望。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles