全新开放许可证生成器:助力负责任的人工智能使用

负责任的人工智能:科技中的关键讨论

负责任的人工智能(AI)在当今科技界是一个至关重要的话题。随着模型开发者努力防止生成式AI和大型语言模型(LLMs)的疏忽或恶意使用,全球AI监管也在不断演变。然而,AI开发者和组织目前急需有效的解决方案。

人们对AI使用的关注日益增加,促使引入带有特定行为使用条款的许可证,例如非营利性负责任AI许可证(RAIL)。这些许可证在共享时法律上限制了AI模型、代码和训练数据的使用方式。

为进一步促进生成式AI的定制与标准化,RAIL推出了许可证生成器。这一创新工具使AI开发者能够选择相关的许可对象,并从精选目录中施加使用限制。

RAIL的联合主席丹尼尔·麦克达夫(Daniel McDuff)表示:“基础模型通常具有广泛的适用性——它可以理解多种语言,并且在下游应用中只需极少的微调。”他补充道:“以前,对应用限制的需求较少,但如今这些多功能模型容易被重新利用,因而这些许可证变得至关重要。”

用法律权威编纂伦理原则

自2018年成立以来,RAIL计划已经扩展到包含41,700个拥有RAIL许可证的模型库。包含行为使用条款的知名模型包括Hugging Face的BLOOM、Meta的Llama 2、Stable Diffusion和Grid。

许可证生成器旨在通过降低访问门槛来进一步增加这一数字。该工具由RAIL工具与程序治理工作组开发,由杰西·约书亚·本杰明(Jesse Josua Benjamin)、斯科特·坎博(Scott Cambo)和蒂姆·科尔亚科夫(Tim Korjakow)领导,为创建定制许可证提供了简化流程。

用户首先选择许可证类型,系统会自动生成初始模板。可用的许可证类型包括:

- 开放RAIL:允许开发者在遵守既定行为限制的前提下使用、分发和修改授权对象。

- 研究RAIL:将授权对象的使用限制为研究目的,禁止商业使用,并遵守行为限制。

- RAIL:不包含行为使用条款,但可能包括其他条款,规定谁可以使用授权对象以及使用方式。

在下一步中,用户选择要授权或共享的对象,通常涉及小心发布与AI相关的代码、算法或模型。随后,他们可以从一系列系统特定的限制中进行选择。

最终生成的许可证可导出为LaTeX、纯文本和Markdown格式,同时提供域图标及完整许可证的二维码下载。

该许可证生成器为缺乏法律团队的个人提供支持,同时也被大中小型组织广泛使用。麦克达夫指出,撰写许可证文档时常常存在“层层不安全”,因为语言必须针对特定领域、上下文和AI类型量身定制。许多开发者因计算机科学或研究背景而感到不够资格撰写法律条款,因此犹豫不决。

“现在只需几分钟即可创建许可证,只需确定要包含的条款,”麦克达夫表示。“这个工具用法律权威塑造伦理原则。”

人工智能对传统科学过程的影响

开放性和开源倡议是科学研究和技术进步的基础,增强了对发现的验证和审计。这种开放性极大地促进了人工智能的发展,尽管基础模型由于其适应性而带来了独特挑战。

尽管开发者通常出于良好意图创建强大模型,但这些模型的多样性可能导致意想不到或有害的应用。去中心化加剧了这些风险,复杂化了下游用户的责任追究。

麦克达夫提醒道:“开源是有优势的,但当单一行为者能够施加重大下游影响,例如传播虚假信息时,这种优势就变得复杂。”

RAIL的联合主席丹麦·承包商(Danish Contractor)强调了开发者在使用限制方面面临的困惑。他解释说:“许多人认为,如果‘AI可以做X,那么它也可以做Y’。”例如,一个医疗模型可能在机器人或军事应用等领域被错误使用,无论是故意还是无意。

承包商指出,有效的沟通以及获取工具以追踪和强制执行许可证违反行为至关重要。行为限制可以在适用条款之间提供一致性和多样性的平衡。虽然某些条款是普遍适用的,例如反歧视和反虚假信息的条款,但标准化至关重要。

麦克达夫重申:“需要一些工具来创建熟悉且灵活的许可证,同时具备必要的法律语言。”他总结道:“不当使用开源代码的风险对像谷歌或微软这样的公司来说太重要,无法忽视。”

Most people like

Find AI tools in YBX