拜登政府已开始推动对开放权重模型进行监测,以收集未来监管所需的关键信息。然而,针对这些模型的具体监管措施尚未明确。
在最近的一份报告中,国家电信和信息管理局(NTIA)强调了评估公共人工智能模型所带来的风险的必要性,因为这些模型可能会扰乱现有系统。进行这样的评估对于防止潜在灾难至关重要。
尽管意识到监测的重要性,NTIA承认美国目前在有效应对许多基础模型相关风险方面的能力仍然不足。为弥补这一差距,NTIA建议集中在三个关键领域:收集风险监测的模型能力证据、评估并比较风险指标,以及制定有针对性的政策以降低这些风险。
NTIA将开放权重模型定义为那些公开发布权重或参数的基础模型,用户可以下载这些模型。与此不同,开源模型在开放许可下运行,允许复制,这与一些人工智能模型开发者的主张相悖。
NTIA表示:“考虑边际风险有助于避免对广泛可用权重的双重使用基础模型施加不必要的严格限制,特别是在权衡类似系统的好处与风险时。”
此外,该机构还指出,开放和封闭模型都存在需要管理的风险,但开放模型可能在风险降低方面提供独特的机遇与挑战。
拜登政府对开放模型的关注表明,其监管方式可能与欧洲联盟的人工智能法案相似,该法案于3月由欧盟议会通过。欧盟的立法依据是使用案例相关的风险,而非模型本身。例如,使用人工智能进行人脸识别的公司已被设定了重罚。考虑到欧盟的做法,美国也可能在考虑针对公共人工智能模型潜在危险的类似措施。
民主与技术中心高级顾问凯文·班克斯顿(Kevin Bankston)称赞了NTIA对人工智能模型监管的谨慎态度。他在一封电子邮件中表示:“NTIA正确地得出结论,尚未有足够证据证明开放基础模型所带来的新风险,因此不应对它们的分发施加新限制。”
目前,人工智能模型开发者不必过于担忧,因为NTIA仍在进行全面的事实调查。
人工智能公司Aquant的联合创始人阿萨夫·梅洛赫纳(Assaf Melochna)在电子邮件中指出,NTIA目前的观察结果并未显著改变模型开发者的环境。他解释道:“开发者仍然可以根据自己的判断发布模型权重,尽管他们将面临更多审查。该行业变化迅速,因此联邦机构必须根据新的发现保持灵活。”