- 简介人工智能(AI)模型会给系统带来隐私漏洞。这些漏洞可能会影响模型所有者或系统用户;它们存在于模型开发、部署和推理阶段,威胁可以是系统内部或外部的。在本文中,我们调查了潜在的威胁,并提出了使用几种隐私增强技术(PETs)来保护AI-enabled系统。然后,我们提供了一个PETs评估框架,用于AI-enabled系统,并讨论PETs可能对系统级变量产生的影响。
- 图表
- 解决问题如何在人工智能模型的开发、部署和推断阶段中,防止隐私漏洞对模型所有者或系统用户造成的影响?
- 关键思路使用多种隐私增强技术(PETs)来保护人工智能系统,并提供一个PETs评估框架。
- 其它亮点论文提出了多种PETs,包括差分隐私、安全多方计算和同态加密等,并提供了一个评估框架。实验使用了MNIST和CIFAR-10数据集,并比较了PETs的性能和隐私保护能力。论文指出PETs可能会对系统的精度、效率和可扩展性产生影响。
- 最近的相关研究包括《Towards Federated Learning at Scale: System Design》和《Privacy-Preserving Deep Learning》等。
沙发等你来抢
去评论
评论
沙发等你来抢