生成性人工智能与言论辩论:法律视角与风险
生成性人工智能正日益成熟,能够创作出富有表现力、信息量大且具有说服力的内容。在美国,法律专家们有争议地认为,大型语言模型(LLM)生成的内容可能受到第一修正案的保护。这种保护甚至可能扩展到潜在有害内容,使其超越政府监管的范围。
呼吁监管
休斯顿大学法学院助理教授彼得·萨利布(Peter Salib)认为,有效的监管对于避免AI生成内容带来的灾难性后果至关重要。他的见解将在即将出版的华盛顿大学法学院评论中刊登。
“受保护的言论是宪法中的神圣范畴,”萨利布解释道。他对像GPT-5这样先进模型的输出被视为受保护的内容表示担忧。这种情形可能大大削弱我们对这些技术的监管能力。
支持AI为受保护言论的论点
一年前,法律记者本杰明·维特斯(Benjamin Wittes)声称,我们或许已经赋予了机器如ChatGPT的“第一修正案权利”。他主张这些AI系统“无疑具有表现性”,通过生成文本、图像及参与对话来创造类言论内容。
维特斯指出,尽管AI内容可能是派生的,但第一修正案保护的是表达,而非原创性。萨利布提到,越来越多的学者开始认可AI的输出与言论的相似程度足以获得保护。
有人认为这些输出是参与程序员的受保护言论,而另一些人则主张它们属于AI系统的公司所有者,例如ChatGPT。萨利布对此表示,“AI输出并不代表任何享有第一修正案权利的发言者的沟通;它们不是人类的表达。”
AI输出的潜在风险
随着AI技术飞速发展,系统在自主和不可预测的方式中变得更为强大。萨利布作为AI安全中心的顾问警告说,生成性AI可能带来严峻风险,包括合成致命化学武器和攻击关键基础设施。
“有强有力的实证证据表明,未来的生成性AI系统将对人类生命构成重大风险,”他表示,预见生物恐怖主义和自动化政治暗杀等潜在情境。
AI:言论但非人类言论
全球领导者开始颁布法规,以确保AI的安全与伦理运行。这些法律可能要求AI系统避免生成有害内容,从而看似形成了言论审查。
萨利布指出,如果AI输出被视为受保护的言论,任何监管都将面临严格的宪法审查,仅在紧迫威胁的情况下才能实施监管。
他强调了AI输出与人类言论之间的区别。传统软件通常反映人类意图,而生成性AI则旨在生产任何内容,缺乏特定的交流意图。
企业言论权与监管
虽然公司不是人类,但却拥有派生的言论权。萨利布认为,企业的权利取决于人类创作者的权利。如果LLM的输出不符合受保护的言论标准,那么在公司传播时获得保护将是不合逻辑的。
为有效降低风险,萨利布提倡监管AI输出,而非限制系统的生成过程。由于当前LLM的复杂性和不可预测性,它们无法被完全控制或编程以避免有害输出。
成功的监管应聚焦于AI输出的性质——判断模型生成的内容是否安全可发布。这种方法将激励AI公司优先考虑安全性。
最终,萨利布强调:“法律必须旨在防止人们受骗或受到伤害,”这表明在AI能力不断提升的背景下,立法行动的重要性亟需引起重视。