复旦大学计算机科学技术学院杨珉教授研究了NLP模型的隐私泄漏问题,包括Google的Bert,OpenAI的GPT-2等一票主流模型,这个工作正式发表于网络安全顶会Security & Privacy(Oakland 2020)。

论文中杨珉团队对8种最先进的自然语言模型的隐私风险进行了系统研究,并给出了4个不同的案例分析。通过构建2类新型攻击,研究表明隐私风险确实存在,由语言模型获得的embedding中包含了纯文本中的许多敏感信息。攻击者通过这些embedding可以进行逆向工程,披露敏感信息,并进一步实施入侵。作为对策,提出了4种不同的防御方法来对这些无保护的embedding进行处理以缓解敏感信息泄露的问题。

另外,在评估中还分析了每一个防御所带来的效用-隐私权衡。

内容中包含的图片若涉及版权问题,请及时与我们联系删除