Auto-configuring Exploration-Exploitation Tradeoff in Evolutionary Computation via Deep Reinforcement Learning

2024年04月12日
  • 简介
    本文提出了一种基于深度强化学习的框架,能够自主配置和调整探索和开发的权衡策略,以优化进化计算算法的性能。该框架允许种群中的不同个体根据当前的搜索状态有选择地关注全局和本地样本,从而最大化协同搜索的结果。该框架具有简单、有效和通用的特点,可以增强现有进化计算算法的性能。为了验证其能力,我们将该框架应用于几种代表性的进化计算算法,并在增强的CEC2021基准测试中进行了大量实验。结果表明,在骨干算法的性能和不同问题类别、维度和种群大小的泛化方面,都有显著的改进。此外,我们通过解释进化计算的学习行为,对探索和开发权衡问题进行了深入分析。
  • 图表
  • 解决问题
    本文旨在解决演化计算算法中的探索-利用平衡问题,通过深度强化学习自主配置和调整探索-利用平衡,提高算法性能。这是否是一个新问题?
  • 关键思路
    本文提出了一种基于深度强化学习的框架,通过自主调整探索-利用平衡,使种群中的个体能够根据当前搜索状态选择性地关注全局和局部样本,从而最大化合作搜索结果。该框架具有简单、有效和通用的特点,可以增强现有的演化计算算法性能。
  • 其它亮点
    本文将提出的框架应用于几种代表性的演化计算算法,并在增强的CEC2021基准测试上进行了广泛的实验。结果表明,该框架显著提高了骨干算法的性能,并在不同的问题类别、维度和种群大小方面具有良好的泛化能力。此外,本文通过解释演化计算的学习行为,对探索-利用平衡问题进行了深入分析。
  • 相关研究
    最近在这个领域中,还有一些相关的研究,如《A Survey of Evolutionary Computation》、《Evolutionary Computation: Past, Present, and Future》等。
许愿开讲
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论