Nightshade:艺术家可免费使用的AI模型“毒药”工具

夜影工具上线:保护艺术作品免受AI模型侵害

经过几个月的期待,专为艺术家设计的免费软件工具夜影现已开放下载。这个创新应用程序使艺术家能够“毒化”试图利用其作品进行训练的AI模型。

夜影由芝加哥大学Glaze项目的计算机科学家在赵本教授的指导下开发,基于开源机器学习框架PyTorch。该工具能识别图像内容,并在像素级别上进行微妙的修改,使得修改后的图像在肉眼看来毫无变化,而对AI程序却显得截然不同。

继往开来

夜影的推出是在近一年前发布的Glaze工具的基础之上。Glaze可以改变数字艺术作品,从而误导AI训练算法对图像风格的判断。相较于Glaze的防守策略,夜影则采取了攻击性的方法。

当AI模型在使用夜影修改过的图像上进行训练时,可能会错误分类未来的图像,造成奇怪的输出。例如,一个AI可能会将一幅牛的图像误解为手袋。

使用要求与功能

艺术家使用夜影软件需要一台配备Apple M1、M2或M3芯片的Mac电脑,或运行Windows 10或11的PC。两个操作系统的下载链接均已提供。由于需求量高,一些用户反映下载时间较长,Mac版本文件大小为255MB,PC版本为2.6GB。

在下载之前,用户需接受团队的最终用户许可协议(EULA),协议中限制对软件的修改和商业复制。

夜影工具将图片转变为“毒化”样本,导致受其训练的AI模型产生不可预测的结果。例如,通过夜影修改的图像可能会使一个模型在请求展示太空中的牛时,反而生成手袋。

该工具对常见图像变换具有抵抗力,包括裁剪、重采样和压缩,这些操作不会削弱其效果。算法的修改并非简单的水印,而是融入到图像细节中的变化,能够在多种修改中保持有效。

反响不一

虽然许多艺术家,包括在对AI艺术公司提起集体诉讼的原告Kelly McKernan,纷纷支持夜影,但也有批评人士认为该工具如同对AI模型的网络攻击。夜影团队澄清了其意图:提高对未授权数据训练的成本,最终促使AI开发者从艺术家那里获取许可。

数据抓取的背景

夜影的出现与人们日益关注的数据抓取问题密切相关,这一行为使AI图像生成器在未经艺术家同意的情况下从互联网提取数据。这种做法危害了艺术家的生计,迫使他们寻找防护措施,以抵御作品的未经授权使用。

数据抓取的争论并不新鲜,早已引发了关于版权和合理使用的广泛关注。尽管AI公司提供了“选择退出”选项,Glaze/Nightshade团队认为这些选项很容易被忽视,执行几乎不可能。

夜影旨在通过增加未经授权抓取的成本来平衡公平竞争的条件,促使AI开发者重新思考商业实践。然而,值得注意的是,夜影并无法消除过去的侵权行为,仅旨在降低未来侵权的可能性。

总之,夜影在人工智能时代的艺术家权利保护斗争中,标志着一次重要的进展。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles