Continuous Control Reinforcement Learning: Distributed Distributional DrQ Algorithms

2024年04月16日
  • 简介
    Distributed Distributional DrQ是一种基于状态和智能体观测的连续控制任务的无模型和离线策略强化学习算法,它是一种带有数据增强和评论家值函数分布视角的演员-评论家方法。旨在学习控制智能体并掌握高维连续空间中的某些任务。DrQ-v2使用DDPG作为骨干,并在各种连续控制任务中实现了超越表现。在这里,Distributed Distributional DrQ使用Distributed Distributional DDPG作为骨干,这种修改旨在通过分布值函数和分布式演员策略的更好表达能力,在一些难以控制的连续控制任务中实现更好的性能。
  • 图表
  • 解决问题
    论文旨在解决高维连续空间中的控制任务,通过分布式分布式DDPG算法的改进,提高分布式值函数的表达能力和分布式actor策略的性能。
  • 关键思路
    论文提出了一种基于状态和观察的分布式分布式DrQ算法,该算法结合了数据增强和分布式价值函数的分布式视角,使用分布式分布式DDPG作为骨干,并在各种连续控制任务中实现了优异的性能。
  • 其它亮点
    论文使用了分布式分布式DDPG作为骨干,并在各种连续控制任务中实现了优异的性能。实验结果表明,分布式分布式DrQ算法在某些困难的连续控制任务中比DDPG和DrQ-v2具有更好的性能。论文提出的算法已经在GitHub上开源。
  • 相关研究
    与该论文相关的研究包括:1. Distributional Reinforcement Learning with Quantile Regression,2. Distributional Reinforcement Learning with Linear Function Approximation,3. Soft Actor-Critic: Off-Policy Maximum Entropy Deep Reinforcement Learning with a Stochastic Actor,4. Continuous control with deep reinforcement learning。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论