该工具名为 Nightshade,旨在反击人工智能公司在未经创作者许可的情况下使用艺术家的作品来训练模型的行为。使用它来“毒害”这些训练数据可能会损害图像生成人工智能模型的未来迭代,例如 DALL-E、Midjourney 和 Stable Diffusion,因为它们的一些输出变得无用——狗变成了猫,汽车变成了牛,等等向前。 《麻省理工科技评论》独家预览了该研究,该研究已提交计算机安全会议 Usenix 进行同行评审。
https://www.technologyreview.com/2023/10/23/1082189/data-poisoning-artists-fight-generative-ai/