- 简介在多智能体问题中,如运动预测和人群导航,建模邻近智能体之间的时空交互是关键。尽管取得了显著进展,但现代表示能够捕捉智能体交互背后的因果关系的程度仍不清楚。在本研究中,我们从计算形式主义到实际应用深入探讨了这些表示的因果意识。首先,我们对最近的CausalAgents基准研究中研究的非因果鲁棒性的概念提出了质疑。我们展示了最近的表示已经在一定程度上对非因果智能体的扰动具有弹性,但建模涉及中介智能体的间接因果效应仍具有挑战性。为了解决这个挑战,我们引入了一种度量学习方法,通过因果注释规范化潜在表示。我们的控制实验表明,这种方法不仅可以产生更高程度的因果意识,而且还可以产生更强的分布外鲁棒性。为了进一步在实践中操作化,我们提出了一种通过跨域多任务学习实现模拟到现实因果转移的方法。在行人数据集上的实验表明,我们的方法可以显著提高泛化能力,即使没有现实世界的因果注释。我们希望我们的工作为实现多智能体交互的因果感知表示提供了新的视角和潜在路径。我们的代码可在https://github.com/socialcausality上找到。
- 图表
- 解决问题本文旨在探讨现代表示法能否捕捉代理之间交互背后的因果关系,特别是间接因果效应的建模问题,并提出相应解决方案。
- 关键思路本文提出了一种度量学习方法,通过因果注释来规范潜在表示,以提高因果意识,同时提出了一种跨域多任务学习的模拟到现实因果转移方法。
- 其它亮点本文对最近的CausalAgents基准测试中的非因果鲁棒性概念提出了质疑,并提出了度量学习方法来提高因果意识和强化鲁棒性。实验结果表明,该方法可以显著提高泛化性能,并且即使在缺乏真实世界因果注释的情况下,也可以实现模拟到现实的因果转移。
- 最近的相关研究包括:《Causal Reasoning from Meta-reinforcement Learning》、《Causal Language Modeling with Transformers》、《Counterfactual Multi-Agent Evaluation and Exploration》等。
沙发等你来抢
去评论
评论
沙发等你来抢