- 简介新兴的分布式人工智能系统正在通过不断增长的经济和社会影响,彻底改变大数据计算和数据处理能力。然而,最近的研究已经确定了由于安全、隐私和公平性问题在人工智能系统中出现的新攻击面和风险。在本文中,我们通过稳健性保证、隐私保护和公平意识来审查可信的分布式人工智能的代表性技术、算法和理论基础。我们首先提供了分布式学习的替代架构的简要概述,讨论了分布式学习中人工智能算法的安全、隐私和公平性的固有漏洞,并分析了为什么这些问题存在于分布式学习中,而不管具体的架构如何。然后,我们提供了一个独特的反制措施分类法,涵盖了(1)对推理中的逃避攻击和不规则查询的鲁棒性保证,以及在训练期间对中毒攻击、拜占庭攻击和不规则数据分布的鲁棒性保证;(2)在分布式学习和模型推理部署期间的隐私保护;(3)关于数据和模型的人工智能公平和治理。最后,我们讨论了可信分布式人工智能面临的开放性挑战和未来研究方向,例如需要可信的人工智能政策指南、人工智能责任-效用共同设计以及激励和合规性。
- 图表
- 解决问题论文旨在解决分布式学习中的安全、隐私和公平性问题,提出了对抗攻击、隐私保护和公平意识等方面的解决方案。
- 关键思路论文提出了一种针对分布式学习中的安全、隐私和公平性问题的综合解决方案,包括对抗攻击、隐私保护和公平意识等方面的解决方案。
- 其它亮点论文提出了一个独特的反制措施分类法,涵盖了对抗攻击、隐私保护和公平性意识等方面的解决方案。论文还讨论了可信AI政策指南、AI责任-效用协同设计和激励和合规性等方面的未来研究方向。
- 最近的相关研究包括:《Federated Learning: Strategies for Improving Communication Efficiency》、《Privacy-Preserving Deep Learning》、《Fairness in Machine Learning: A Survey》等。
沙发等你来抢
去评论
评论
沙发等你来抢