- 简介生成人类移动轨迹对于解决由于隐私问题导致大量轨迹数据缺失的众多应用至关重要。然而,现有的移动轨迹生成方法仍需要集中收集真实的人类轨迹作为训练数据,存在难以避免的隐私泄露风险。为了克服这一限制,本文提出了PateGail,一种隐私保护的模仿学习模型,用于生成移动轨迹,该模型利用强大的生成对抗模仿学习模型模拟人类的决策过程。此外,为了保护用户隐私,我们基于存储在用户设备中的分散移动性数据共同训练该模型,本地训练个人鉴别器来区分和奖励真实和生成的人类轨迹。在训练过程中,只有生成的轨迹及其基于个人鉴别器获得的奖励与服务器和设备之间共享,我们提出的扰动机制进一步保护了其隐私,并提供理论证明以满足差分隐私。此外,为了更好地模拟人类决策过程,我们提出了一种新的聚合机制,用于聚合从个人鉴别器获得的奖励。我们在理论上证明,在基于聚合机制获得的奖励下,我们提出的模型最大化了用户折扣总奖励的下限。广泛的实验表明,我们的模型生成的轨迹能够以五个关键统计指标的形式类似于真实世界的轨迹,比最先进的算法表现优异48.03%以上。此外,我们证明了合成轨迹能够有效地支持实际应用,包括移动性预测和位置推荐。
-
- 图表
- 解决问题解决隐私问题下的人类移动轨迹生成问题,避免因隐私问题导致缺乏大规模轨迹数据的情况
- 关键思路提出了一种基于分布式学习的隐私保护模型PateGail,利用生成对抗模型模拟人类决策过程,通过本地训练个人判别器来区分真实轨迹和生成轨迹,使用扰动机制保护隐私,通过聚合机制来计算奖励,最大化用户的折扣总奖励下限
- 其它亮点实验结果表明,该模型能够生成与真实轨迹相似的合成轨迹,并且在移动预测和位置推荐等应用中表现出效率和准确性,超过了现有算法48.03%以上
- 相关研究包括隐私保护数据生成、分布式学习、生成对抗模型等,如:Privacy-Preserving Synthetic Data Generation、Federated Learning、Generative Adversarial Networks等
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流