Fairly Trained推出道德AI认证:确保生成工具使用授权数据

被称为生成式人工智能的“原罪”,许多领先的模型,如OpenAI和Meta的产品,在未经原创者同意或知情的情况下,使用从互联网抓取的数据进行训练。对此,AI公司辩称这在法律上是允许的。OpenAI在最近的博客中表示:“使用公开可用的互联网材料训练AI模型属于合理使用,得到了长期案例的支持。我们认为这一原则对创作者是公正的,对创新者是必要的,同时对美国的竞争力至关重要。”

这种数据抓取的行为早在生成式人工智能兴起之前就已存在,广泛应用于许多研究数据库和商业产品中,包括创作者依赖的流行搜索引擎如谷歌。然而,反对这一做法的声音日益增强,许多作者和艺术家正在起诉几家AI公司,指控它们在未经明确同意的情况下使用他们的作品进行训练,Midjourney和OpenAI特别引人关注。

为倡导数据创作者权益,新的非营利组织“Fairly Trained”成立,强调在使用创作者作品进行AI训练之前必须获得明确同意。该组织由前Stability AI员工Ed Newton-Rex共同创立,旨在确保AI公司尊重创作者的权利。该组织的网站上指出:“我们相信,许多消费者和公司宁愿与那些在获得创作者同意的数据上进行训练的生成式AI公司合作。”

Newton-Rex强调,未来生成式人工智能应尊重创作者,并提倡训练数据的许可模式。他在社交媒体上表示:“如果您在或认识一家优先考虑这种方法的生成式AI公司,希望您考虑申请认证。”

当被问及AI支持者普遍认为在公开数据上训练与人类通过观察创意作品学习相似的说法时,Newton-Rex反驳道:“这个论点有两个缺陷。首先,AI具有规模效应。单个AI可以生成大量输出,可能替代对大多数原创内容的需求,而这是任何单独人类所无法做到的。其次,人类学习是在既定的社会契约之内;创作者一直知道他们的作品可能会激发他人,他们没有预见到AI系统会利用他们的创作,以规模化生成竞争内容。”

Newton-Rex建议已经在公开数据上训练的AI公司转向许可模式,获得创作者的许可。他指出:“我们仍处于生成式AI发展的早期阶段,还有时间为人类创作者和AI公司创造一个互利的生态系统。”

Fairly Trained推出了“许可模式(L)认证”以区分那些获得训练数据同意的公司与那些没有的公司。认证过程包括在线提交和更深入的审核,费用根据年度收入从150美元到6000美元不等。Newton-Rex解释道:“我们收取费用来覆盖成本,这些费用足够低,生成式AI公司不会觉得负担太重。”已有包括Beatoven.AI和Soundful在内的几家公司获得了这一认证,但Newton-Rex未透露具体的费用金额。

当被询问关于如Adobe和Shutterstock等使用创作者作品进行AI模型训练的公司时,他表示:“我们不便对尚未经过认证的具体模型作出评论。如果他们认为自己的模型符合我们的认证标准,欢迎申请。”

Fairly Trained的顾问包括前Siri首席技术官Tom Gruber和美国出版商协会主席兼首席执行官Maria Pallante。支持者包括独立音乐出版社协会和环球音乐集团等知名组织,后者正参与对AI公司Anthropic的诉讼,指控其侵犯歌曲歌词的版权。

当被问及Fairly Trained是否参与任何正在进行的诉讼时,Newton-Rex明确表示:“不,我没有参与任何诉讼。”他还确认,除了认证费用外,Fairly Trained目前没有其他外部资金来源。

Most people like

Find AI tools in YBX