- 简介随着可解释人工智能(XAI)的应用不断扩大,解决其隐私影响的紧迫性也日益加剧。尽管在人工智能隐私和可解释性方面有越来越多的研究,但对于保护隐私的模型解释却鲜有关注。本文介绍了第一篇关于模型解释隐私攻击及其对策的全面调查。我们的贡献在于对研究论文进行了全面分析,并提供了一个相关分类法,以便根据目标解释对隐私攻击和对策进行分类。此外,本文还对隐私泄露的原因进行了初步调查。最后,我们讨论了在分析中发现的未解决问题和前景研究方向。本调查旨在成为研究社区的有价值的资源,并为那些新手提供清晰的见解。为了支持持续的研究,我们建立了一个在线资源库,将不断更新新的和相关的发现。鼓励感兴趣的读者访问我们的资源库,网址为https://github.com/tamlhp/awesome-privex。
- 图表
- 解决问题论文旨在调查解释型人工智能(XAI)中的隐私问题,并提出隐私保护的模型解释方法。这是否是一个新问题?
- 关键思路论文提供了一个分类法,便于对攻击和防御方法进行分类,并进行了对隐私泄露原因的初步研究。相比当前领域的研究,本文的关键思路在于提供了针对模型解释的隐私保护方法。
- 其它亮点论文提供了一个在线资源库,包含了实验数据和代码。该研究为研究人员提供了有价值的资源,并为新手提供了清晰的洞见。论文还讨论了未解决的问题和未来的研究方向。
- 最近的相关研究包括:1. "Towards Privacy-Preserving Deep Learning";2. "Privacy-Preserving Machine Learning: Threats and Solutions";3. "Privacy-Preserving Deep Learning"。
沙发等你来抢
去评论
评论
沙发等你来抢