Privacy-Enhancing Technologies for Artificial Intelligence-Enabled Systems

2024年04月04日
  • 简介
    人工智能(AI)模型会给系统带来隐私漏洞。这些漏洞可能会影响模型所有者或系统用户;它们存在于模型开发、部署和推理阶段,威胁可以是系统内部或外部的。在本文中,我们调查了潜在的威胁,并提出了使用几种隐私增强技术(PETs)来保护AI-enabled系统。然后,我们提供了一个PETs评估框架,用于AI-enabled系统,并讨论PETs可能对系统级变量产生的影响。
  • 图表
  • 解决问题
    如何在人工智能模型的开发、部署和推断阶段中,防止隐私漏洞对模型所有者或系统用户造成的影响?
  • 关键思路
    使用多种隐私增强技术(PETs)来保护人工智能系统,并提供一个PETs评估框架。
  • 其它亮点
    论文提出了多种PETs,包括差分隐私、安全多方计算和同态加密等,并提供了一个评估框架。实验使用了MNIST和CIFAR-10数据集,并比较了PETs的性能和隐私保护能力。论文指出PETs可能会对系统的精度、效率和可扩展性产生影响。
  • 相关研究
    最近的相关研究包括《Towards Federated Learning at Scale: System Design》和《Privacy-Preserving Deep Learning》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论