University of Chicago研究人员开发Nightshade工具防止未经许可的AI图像生成

释放双眼,带上耳机,听听看~!
芝加哥大学研究人员开发Nightshade工具,防止未经许可的AI图像生成,保护艺术家和版权所有者的作品。Nightshade添加对人眼不可见的隐藏信息,阻止AI图像生成器有效地使用未经许可的图像进行训练。

划重点:

🔍 University of Chicago研究人员开发了Nightshade工具,通过“污染”AI图像生成器,使模型无法在未经许可的情况下训练图片。

🔍 Nightshade允许艺术家和版权所有者创建“毒害”版本的图像,这些图像与原始图像相同,但包含对人眼不可见的隐藏信息。

🔍 Nightshade旨在增加使用未经许可内容的图像生成器开发者的成本,而不是破坏模型。

AICMTY(aicmty.com)4月9日 消息:据报道,芝加哥大学的研究人员开发了一种名为Nightshade的工具,旨在防止未经许可的AI图像生成。该工具可以使AI图像生成器无法使用未经许可的图像进行训练,从而保护了艺术家和版权所有者的作品。

University of Chicago研究人员开发Nightshade工具防止未经许可的AI图像生成

Nightshade的工作原理是在图像中添加隐藏信息,这些信息对人眼不可见。当像Stable Diffusion这样的AI图像生成器尝试使用这些图像进行训练时,这些额外的信息会导致生成的输出失真,从而防止图像被有效地用作训练数据。即使用户对这些被“毒害”的图像进行裁剪、编辑和压缩,效果也仍然存在。Nightshade甚至在对被“毒害”的图像截屏或在显示器上显示时也能起作用;任何由此产生的图像如果被AI模型处理,都会产生失真。

相比于其他工具,如Stability提供的选择退出机制,Nightshade的设计初衷是增加使用未经许可内容的图像生成器开发者的成本。Nightshade还不同于Glaze,后者旨在阻止AI模型未经许可地训练图像,而Glaze则旨在增加AI模型复制艺术家独特风格的难度。

Nightshade工具对任何人都是可用的。用户可以从该项目的网站上下载,并且可以在Windows和Mac上运行。运行Nightshade不需要任何额外的GPU驱动程序。

Nightshade加入了越来越多的工具,为艺术家保护其作品,例如麻省理工学院的PhotoGuard,它创建了扭曲AI编辑图像的“掩码”。

此外,还有一些其他工具,如谷歌DeepMind的SynthID和Meta的Stable Signature,可用于识别由AI创建的图像。然而,这些工具仅适用于特定的图像生成模型,仅为Imagen和Emu等模型提供功能。

产品入口:https://nightshade.cs.uchicago.edu/whatis.html

本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
AI资讯

360AI办公:超过100款AI办公应用集成,满足个性化办公需求

2024-4-9 11:21:55

AI资讯

Spotify推出AI播放列表功能,个性化音乐体验

2024-4-9 11:50:49

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索