- 简介盗版可能会发生在生成模型生成的样本与其在训练阶段访问到的某些受版权保护的数据存在实质相似性时。访问的概念通常是指直接将受版权保护的样本包含在训练数据集中,可以检查以识别侵权行为。我们认为这种视觉审计在很大程度上忽略了隐蔽的版权侵权行为,其中一个人构建了一个看起来与受版权保护的样本截然不同但仍会对其进行潜在扩散模型的训练的伪装。这些伪装只需要间接访问受版权保护的材料,无法在视觉上区分,因此很容易规避当前的审计工具。在本文中,我们通过揭示伪装生成算法、伪装的揭示以及重要的是如何检测它们来增强现有工具箱,提供了更好的理解这种伪装的版权侵权行为。此外,我们还引入了更广泛的承认概念,以理解这种间接访问。
- 解决问题本文试图揭示一种隐蔽的版权侵权行为:通过构建与版权数据显著不同但仍能影响训练潜在扩散模型的伪装来规避当前的版权审计工具。论文旨在提高人们对这种间接访问版权材料的侵权行为的认识,以及如何检测它们。
- 关键思路本文揭示了伪装版权侵权的生成算法,并提出了检测这种伪装的方法。此外,本文还引入了更广泛的认知概念,以理解这种间接访问。
- 其它亮点本文介绍了检测伪装版权侵权的新方法,并提供了一个更广泛的认知概念。实验使用了不同的数据集,并提供了开源代码。本文的工作可以为未来的版权保护研究提供新的思路。
- 与本文相关的研究包括:《基于深度学习的版权保护技术综述》、《基于深度学习的版权保护技术研究》等。
沙发等你来抢
去评论
评论
沙发等你来抢