1. 主页 > AI行业 > 行业快讯

艺术家用Nightshade反击AI:保护作品免受模型训练侵权

艺术家现在可以通过 Nightshade来反击人工智能,以保护其作品免受 AI 模型训练的侵犯。

Nightshade作为一种新工具,赋予艺术家一种全新的力量,让他们能够在上传作品之前,对其像素进行不可见的修改。这样一来,当作品被 AI 公司用于训练模型时,生成的模型就会陷入混乱和不可预测的状态。

AI数字人

以上图片为AI生成

Nightshade 的设计初衷,是为了反击那些未经创作者许可,就使用其作品训练模型的 AI 公司。这种“毒害”训练数据的做法可以破坏未来的图像生成 AI模型的迭代版本,比如 DALL-E、Midjourney 和 Stable Diffusion,使其输出的结果变得毫无用处——狗变成猫,汽车变成牛等。MIT 科技评论独家预览了这项研究,并提交给了计算机安全会议 Usenix 进行同行评审。

AI公司如OpenAI、Meta、Google和 Stability AI正面临艺术家的一系列诉讼,艺术家们声称自己的受版权保护的材料和个人信息在未经同意或未获得补偿的情况下被抓取。本工具的创造者、芝加哥大学的教授 Ben Zhao 表示,他希望 Nightshade 能够帮助将权力从 AI 公司重新移回艺术家手中,从而创建一种强有力的威慑力,防止侵犯艺术家的版权和知识产权。

Zhao的团队还开发了另一种工具,名为Glaze,它允许艺术家“掩盖”自己的个人风格,防止被 AI 公司抓取。Glaze 的工作方式与 Nightshade 类似:通过以肉眼不可见的方式改变图片的像素,使机器学习模型将图像解释为与其实际显示的内容不同的东西。

该团队计划将 Nightshade 整合到 Glaze 中,艺术家可以选择是否使用这种数据毒害工具。团队还打算开放 Nightshade 的源代码,让其他人可以对其进行修改并制作自己的版本。Zhao 表示,越多的人使用它并制作自己的版本,这个工具就会变得越强大。大型 AI 模型的数据集可能包括数十亿的图像,因此被抓取到模型中的“毒害”图像越多,这种技术就会造成越大的破坏。

本文由小熊AI网发布,不代表小熊AI网立场,转载联系作者并注明出处:https://www.xiaoxiong360.com/html/info/1234.html