最近,一组由23名人工智能研究人员、学者和创意人士组成的团队发表了一篇论文,指出建立“安全港”法律和技术保护对独立评估人工智能产品至关重要。这一保护措施为进行“善意”调查的研究人员、记者和艺术家提供了必要支持。
论文强调了一个显著的障碍:主要人工智能服务提供商(包括OpenAI、谷歌、Anthropic、Inflection、Meta和Midjourney)的服务条款通常在法律上限制对人工智能漏洞的研究。作者呼吁这些公司通过提供对账户暂停和法律责任的保障,支持公共利益的人工智能研究。
伴随的博客文章指出:“尽管这些条款旨在防止恶意使用,但它们也无意间阻碍了人工智能安全研究。”公司可能严格执行这些政策,从而影响重要的研究进展。
MIT媒体实验室的共同作者Shayne Longpre和普林斯顿大学的Sayash Kapoor在最近《纽约时报》的诉讼背景下强调了这一问题的重要性。OpenAI将《时报》对ChatGPT的评估称为“黑客行为”,对此,《时报》的首席律师回应称,OpenAI的解读错误地将合法调查与恶意活动混为一谈。
Longpre提到,骑士第一修正权研究所早前倡导保护调查社交媒体的记者。“我们希望借鉴这一倡议,为人工智能研究提出安全港的建议,”他解释道。“在人工智能领域,由于使用和相关危害缺乏明确性,获得研究访问权限至关重要。”
该论文名为《人工智能评估与红队测试的安全港》,提到在OpenAI、Anthropic、Inflection和Midjourney等公司进行公共利益研究时账户暂停的例子,其中Midjourney因频繁暂停而受到特别关注。共同作者和艺术家Reid Southen在调查Midjourney输出的潜在版权侵犯问题时,遭遇了多次封禁,揭示平台在用户无意的情况下可能侵犯版权。
“Midjourney至少对我进行了三次封禁,我个人损失近300美元,”Southen回忆道。“第一次封禁是在我发布研究结果后的八小时内,他们之后悄悄更改了条款,却没有通知用户,把侵权责任转嫁给他人。”
Southen主张进行独立评估,认为这些公司未能自我评估,从而伤害了版权拥有者的利益。
透明性是这一讨论的关键。Longpre强调,允许独立研究人员调查人工智能产品的能力和缺陷非常重要,前提是他们能够表明使用的负责任性。他希望与公司合作,提高透明度并增强安全性。
Kapoor承认,尽管公司对服务滥用有正当担忧,但政策不应对恶意用户与进行关键安全研究的研究人员一视同仁。他指出与受影响公司之间的持续对话,表示:“大多数公司对我们的提议表示关注,其中一些已开始调整其条款,特别是OpenAI在我们初稿后修改了相关表述。”
总体而言,这篇论文倡导一种平衡的方法,通过明确而有力的保护措施,促进人工智能安全并支持研究。