如果艺术家要使用大型科技公司拥有的知识产权,他们就有面临法律诉讼的风险。然而,许多创作者对这些科技公司以生成人工智能培训材料的形式大规模使用他们的知识产权感到不满。他们能反击吗?
也许现在他们可以通过芝加哥大学团队的 Nightshade 来实现。它是一款适用于 Windows 和 MacOS 的软件,可以用难以察觉的阴影对图像进行毒害,从而使人工智能以与表面上完全不同的方式对其进行分类。
这个想法是创作者在他们的艺术作品中使用它,然后将其留给毫无戒心的人工智能来消化。他们的例子是,一头牛的图片可能会被中毒,以至于人工智能将其视为手提包,如果有足够多的创作者使用该软件,那么当被要求提供一头牛时,人工智能将永远被中毒,返回一张手提包的图片。如果足够多的这些有毒图像被放到网上,那么人工智能使用在线图像的风险就会变得太高,并且希望人工智能公司将被迫认真对待其源材料的知识产权。
要实现这一点,取决于足够多的创作者接受和使用该软件,但我们猜测,不可避免的结果将是人工智能和图像中毒者之间的军备竞赛。但有一件事是肯定的,随着人工智能的炒作推动了生成式人工智能系统的发展,创作者,无论他们是主要出版商、你最喜欢的人类生成的科技新闻网站,还是在卧室里画漫画的人,都不应该他们的作品就这样被盗了。
原文: https://hackaday.com/2024/01/21/creators-can-fight-back-against-ai-with-nightshade/