人工智能输出被视为受保护言论吗?法律专家警告这一危险观念

生成性人工智能与言论辩论:法律视角与风险

生成性人工智能正日益成熟,能够创作出富有表现力、信息量大且具有说服力的内容。在美国,法律专家们有争议地认为,大型语言模型(LLM)生成的内容可能受到第一修正案的保护。这种保护甚至可能扩展到潜在有害内容,使其超越政府监管的范围。

呼吁监管

休斯顿大学法学院助理教授彼得·萨利布(Peter Salib)认为,有效的监管对于避免AI生成内容带来的灾难性后果至关重要。他的见解将在即将出版的华盛顿大学法学院评论中刊登。

“受保护的言论是宪法中的神圣范畴,”萨利布解释道。他对像GPT-5这样先进模型的输出被视为受保护的内容表示担忧。这种情形可能大大削弱我们对这些技术的监管能力。

支持AI为受保护言论的论点

一年前,法律记者本杰明·维特斯(Benjamin Wittes)声称,我们或许已经赋予了机器如ChatGPT的“第一修正案权利”。他主张这些AI系统“无疑具有表现性”,通过生成文本、图像及参与对话来创造类言论内容。

维特斯指出,尽管AI内容可能是派生的,但第一修正案保护的是表达,而非原创性。萨利布提到,越来越多的学者开始认可AI的输出与言论的相似程度足以获得保护。

有人认为这些输出是参与程序员的受保护言论,而另一些人则主张它们属于AI系统的公司所有者,例如ChatGPT。萨利布对此表示,“AI输出并不代表任何享有第一修正案权利的发言者的沟通;它们不是人类的表达。”

AI输出的潜在风险

随着AI技术飞速发展,系统在自主和不可预测的方式中变得更为强大。萨利布作为AI安全中心的顾问警告说,生成性AI可能带来严峻风险,包括合成致命化学武器和攻击关键基础设施。

“有强有力的实证证据表明,未来的生成性AI系统将对人类生命构成重大风险,”他表示,预见生物恐怖主义和自动化政治暗杀等潜在情境。

AI:言论但非人类言论

全球领导者开始颁布法规,以确保AI的安全与伦理运行。这些法律可能要求AI系统避免生成有害内容,从而看似形成了言论审查。

萨利布指出,如果AI输出被视为受保护的言论,任何监管都将面临严格的宪法审查,仅在紧迫威胁的情况下才能实施监管。

他强调了AI输出与人类言论之间的区别。传统软件通常反映人类意图,而生成性AI则旨在生产任何内容,缺乏特定的交流意图。

企业言论权与监管

虽然公司不是人类,但却拥有派生的言论权。萨利布认为,企业的权利取决于人类创作者的权利。如果LLM的输出不符合受保护的言论标准,那么在公司传播时获得保护将是不合逻辑的。

为有效降低风险,萨利布提倡监管AI输出,而非限制系统的生成过程。由于当前LLM的复杂性和不可预测性,它们无法被完全控制或编程以避免有害输出。

成功的监管应聚焦于AI输出的性质——判断模型生成的内容是否安全可发布。这种方法将激励AI公司优先考虑安全性。

最终,萨利布强调:“法律必须旨在防止人们受骗或受到伤害,”这表明在AI能力不断提升的背景下,立法行动的重要性亟需引起重视。

Most people like

Find AI tools in YBX