- 简介本文关注基于强化学习(RL)的运动规划,最近已经显示出在自主导航到机器人操纵等方面超越传统方法的潜力。本文重点研究了部分可观察多智能体对抗追逐-逃避游戏(PEG)中的逃避目标的运动规划任务。这些追逐-逃避问题与各种应用相关,例如搜救行动和监视机器人,在这些应用中,机器人必须有效地规划他们的行动,以收集情报或完成任务,同时避免自己被探测或捕获。我们提出了一种分层架构,它集成了高层扩散模型来规划响应环境数据的全局路径,而低层RL算法则考虑逃避行为与全局路径跟踪行为。我们的方法通过利用扩散模型来引导RL算法进行更有效的探索,从而比基线表现提高了51.2%,并提高了可解释性和可预测性。
- 图表
- 解决问题本论文旨在解决部分可观测多智能体对抗追逐游戏中的动作规划问题,提出了一种基于强化学习和扩散模型的层次化架构。
- 关键思路该论文提出的层次化架构将高层次的扩散模型和低层次的强化学习算法相结合,能够更有效地探索环境并规划全局路径,同时考虑了闪避和全局路径跟随行为。
- 其它亮点该算法在多个实验中都表现出了优异的性能,相较于基线算法提高了51.2%,并且提高了可解释性和可预测性。论文使用的数据集并未提及,但是该算法具有开源代码。
- 在该领域的相关研究包括:'Multi-Agent Reinforcement Learning: A Selective Overview of Theories and Algorithms','Multi-Agent Reinforcement Learning: A Review'等。
沙发等你来抢
去评论
评论
沙发等你来抢