艺术家如何巧妙阻止AI对其作品进行训练

保护艺术完整性:夜影的崛起

在人工智能时代,艺术家们获得了一种革命性的工具,能够保护他们的数字创作免受AI的滥用。来自芝加哥大学的研究人员推出了一种名为“夜影”的新技术,旨在通过数据污染干扰AI模型的训练过程。夜影巧妙地修改数字艺术作品中的像素,为人类创作者与AI技术之间日益尖锐的关系提供了独特的解决方案。

人类艺术家的创意和经济生存面临威胁。知识产权律师谢尔顿·布朗指出,AI可能会削弱艺术创作的经济激励,造成严重后果。他表示:“如果AI消除了创作原创艺术的经济动机,许多创意行业的职业将难以维持。”他补充道:“这一情形也将对AI开发者构成挑战,因为模型高度依赖新鲜的人类创作内容。如果艺术创作停止,停滞是不可避免的。”

AI生成图像的崛起

在过去一年中,采用先进扩散技术的文本到图像模型日益流行,影响了广告、时尚和网络开发等多个行业。然而,快速的普及引发了艺术家们的重大担忧,许多人认为生成型AI系统在未获得适当认可或补偿的情况下,剽窃了他们的作品。针对包括Stability AI和Midjourney在内的大型企业,已发起了法律行动,表明艺术界的不满情绪正在增长。

夜影:应对策略

夜影作为应对这些挑战的潜在解决方案,利用了AI系统内部的脆弱性。该技术通过对数字图像的像素进行细微调整,使这些变化肉眼不可见。这些修改不仅影响视觉内容,还涉及任何相关文本或说明,这对于AI理解图像至关重要。

将这种经过改动的图像引入AI训练数据集中可能导致重大误解。例如,AI可能错误地将帽子识别为蛋糕,将手提包识别为烤面包机。这些被污染的图像的影响将扩展到相关概念,造成即使在看似无关的话题中也产生混淆。一个处理了与“奇幻艺术”相关的受损图像的AI,可能会错误识别出“龙”或“城堡”等标志性元素。

在严格的测试中,研究人员集中测试了夜影对最新Stable Diffusion模型及定制训练AI的有效性。他们发现,当将50张污染的狗的图像注入训练集中时,AI开始生成奇异和扭曲的作品,包括形状夸张的生物。当污染样本增加到300张时, Stable Diffusion竟将狗的图像转变为更像猫的恐怖表现。

未来的AI防御机制

虽然夜影提供了一种有前景的方法,但一些专家对此表示谨慎。Symmetry Systems的AI负责人米哈伊尔·卡兹达利指出,类似的方法和技术在对抗性机器学习领域已经存在数十年。他认为:“虽然夜影可能代表了向生产就绪的防御措施迈出的重要一步,但这不可避免地会引发持续的防御与攻击策略的循环。”

网路安全公司Netenrich的首席威胁猎手约翰·班贝内克也对此表示赞同,形容保护知识产权的斗争是一个持续的“打鼹鼠游戏”。他说:“遏制盗版的策略与技术一起发展,这一点可以通过数字千年版权法案后的电影和媒体盗版仍然存在得到证明。”

为了进一步加强对艺术家的保护,像素和水印的使用已被证明对识别图片的未经授权使用有效。SlashNext的首席执行官帕特里克·哈尔强调,依赖许可收入的公司,例如Getty Images,可能会开发保护艺术权益的技术,而不需要通过破坏AI训练模型来实现。

知识产权保护的立法解决方案

要真正保护艺术家的作品,预防措施至关重要。布朗主张采取积极的知识产权保护措施,建议理想的策略是首先防止作品被AI模型获取。“不在网上发布作品是一种实现这一目标的方法,”他指出,但他也承认这种做法在长期内并不切实可行。

在立法方面,布朗强调需要制定类似于数字千年版权法案的法规,以应对互联网初期的侵犯行为。这些法规将在数字环境中为执行知识产权提供更明确的路径。

在一个进步的未来,布朗设想了一种景象,其中AI检测工具能够自主识别其他AI系统的侵权行为,从而便于提交与数字千年版权法案类似的删除请求。

在应对数字时代复杂性的过程中,像夜影这样的创新解决方案为艺术家在快速发展的AI环境中保持对创作表达的控制提供了希望。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles