麻省理工学院的研究人员发布了一份深具洞察力的政策报告,呼吁美国政府增强对人工智能(AI)的监管框架。该报告题为《构建安全与繁荣的人工智能行业》,共10页,强调在医疗等领域扩展现有法律框架以涵盖AI技术的必要性,特别是在AI辅助诊断的相关法规方面。此外,报告还主张AI的监管应与当前政府运作的标准一致,包括执法、保释决定和招聘流程等。
研究人员指出,任何针对人类活动的法律都应适用于AI系统。他们明确表示:“如果不使用AI的人类活动受到监管,那么使用AI的活动也应受到类似监管。”这一原则保证了AI系统的开发、使用和部署遵循与人类活动相同的法律标准。
政策报告特别关注在现有法律下已经受到审查的高风险AI应用。例如,自动驾驶汽车的监管标准应与人类驾驶相当,以实现现有框架的有效应用。
报告还要求通用AI系统的开发者(如ChatGPT)在发布前清晰说明其技术的预期用途。这种责任制有助于监管者制定具体指南,确保开发者的系统与预期用途一致。
此外,报告强调了AI背景下的知识产权问题。建议建立机制,帮助创作者保护作品,提倡强制标记AI生成内容作为解决方案之一。
报告指出,现有监管与法律框架在AI应用中的适用性模糊不清。文中提到:“目前尚不清楚现有的监管和法律框架在AI领域是否适用,或是否足以应对相关挑战。”这种不确定性给提供者、用户和公众带来了困惑,增加了对AI技术风险的误解。作者强调,增强监管的明确性至关重要,以促进AI的负责任开发和使用,使所有美国人都能受益。
麻省理工学院施瓦茨计算学院院长丹·胡滕洛赫表示:“作为一个国家,我们在多个高风险领域已经实施了监管。虽然现有措施可能不足,但可以从人类活动的监管出发,这是推进AI监管的实用之路。”
这份政策报告与其他探讨AI各方面的研究相呼应,如大型语言模型管理、以工人为重心的AI战略和AI生成内容的标签化,展现了建立健全AI监管生态系统的广泛承诺。