GLHF: General Learned Evolutionary Algorithm Via Hyper Functions

2024年05月06日
  • 简介
    预训练优化模型(POMs)利用优化各种任务所获得的知识,通过直接使用或微调为新的优化挑战提供高效的解决方案。尽管当前POMs存在效率低下和有限的泛化能力,但我们提出的模型——通用预训练优化模型(GPOM),解决了这些缺点。GPOM构建了一个基于种群的预训练黑盒优化(BBO)模型,专为连续优化而设计。在BBOB基准测试和两个机器人控制任务中的评估表明,GPOM明显优于其他预训练BBO模型,特别是对于高维任务。其直接优化性能超过了最先进的进化算法和POMs。此外,GPOM在不同任务分布、维度、种群大小和优化时间跨度上表现出了强大的泛化能力。
  • 图表
  • 解决问题
    本论文旨在解决预训练优化模型(POM)的效率和泛化能力受限的问题,提出了一种新的通用预训练优化模型(GPOM)。
  • 关键思路
    GPOM构建了一个基于种群的预训练黑盒优化模型,针对连续优化进行优化,通过在BBOB基准测试和两个机器人控制任务上的评估,证明了GPOM在高维任务中显著优于其他预训练BBO模型,直接优化性能超过了最先进的进化算法和POM。
  • 其它亮点
    本文的亮点在于提出了一种新的预训练优化模型,GPOM,在BBOB基准测试和两个机器人控制任务上的表现优于其他预训练BBO模型,尤其是在高维任务中。GPOM还表现出对各种任务分布、维度、种群大小和优化时间的鲁棒泛化能力。本文的实验设计合理,使用了BBOB基准测试和两个机器人控制任务进行评估,并开源了代码。
  • 相关研究
    近期的相关研究包括:'Pretrained Neural Networks for Shortest Path and Time-Dependent Shortest Path Problems','Pretrained Neural Networks for Solving Quadratic Assignment Problems'等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论