综合 2024-05-07 13:06

在当今世界,作为一名艺术家,意味着你不能只担心抄袭和双重性的模仿者——你现在还必须注意生成人工智能模型剽窃你的作品。

值得庆幸的是,一款名为Nightshade的新工具不仅可以保护你的图像不被人工智能模型模仿,还可以通过向它们提供误导性数据来“毒害”它们。

它的开发者在2023年底首次公布,周五宣布终于可以下载一个完整的版本。

这是艺术家们对像Stable Diffusion和Midjourney这样的人工智能图像生成器采取强硬立场的最新迹象,这些生成器在未经许可或补偿的情况下对他们的作品进行了培训。

Nightshade的开发者是芝加哥大学的一组计算机科学家,他们说他们的软件旨在成为一种“进攻性工具”,而它的前身Glazer被设计为一种防御性工具。

他们仍然建议使用这两种工具。釉的工作原理是在像素水平上对图像进行微妙的修饰——“上釉”。这些变化在很大程度上是肉眼无法察觉的,用开发者的话说就是“像紫外线一样”,但对于人工智能模型来说是清晰可见的,因为它们看到的图像不同。整体效果使图像内容对AI模糊不清。

龙葵则更进一步。在“着色”图像时,该工具也会引入微妙的变化,但这些变化可能会导致人工智能模型错误地识别它所看到的内容。开发人员写道,人类可能会看到“绿色田野里的一头牛”,但人工智能模型可能会看到草地上躺着一个皮钱包。

开发人员设想,如果得到足够广泛的采用,Nightshade可以用来“破坏那些未经同意就刮掉自己照片的模特(从而保护所有艺术家免受这些模特的侵害)”。这可能会“增加未经授权数据的培训成本”,迫使人工智能公司只使用从创作者那里获得适当授权的作品进行培训。

同时,通过使用釉艺术家可以抛出提示模仿一个特定的艺术家的风格。事实上,一些艺术家在人工智能生成的图像中被无处不在地复制,以至于他们的名字不得不被禁止出现在提示框中——尽管这并没有阻止顽强的人工智能兄弟们拼命复制他们的作品。

这可能是艺术家保护自己作品的最佳方式,因为就目前而言,寻求潜在的版权侵权法律追索的途径仍不确定。艺术家和作家——甚至盖蒂图片社——都在这方面起诉了人工智能公司,直到对这些案件做出决定,这种做法的合法性才会变得更加清晰。在那之前,人工智能公司将尽可能多地吞噬内容。所以现在,“先遮荫,后上釉”。