Learning with Local Search MCMC Layers

2025年05月20日
  • 简介
    近期,将组合优化层集成到神经网络中的研究引起了广泛关注。然而,许多现有的方法要么缺乏理论保证,要么在依赖近似求解器时表现不佳。这是一个关键的限制,因为许多运筹学问题属于 NP 难问题,通常需要使用基于邻域的局部搜索启发式算法。这些启发式算法通过迭代生成和评估候选解,并根据接受规则进行选择。在本文中,我们提出了一种具有理论依据的学习方法,能够与这类近似组合求解器结合使用。受模拟退火与 Metropolis-Hastings 算法之间联系的启发,我们将局部搜索启发式算法中使用的特定问题邻域系统转化为提议分布,在可行解的组合空间上实现马尔可夫链蒙特卡洛(MCMC)采样。这使我们能够构建可微分的组合优化层及其对应的损失函数。用局部搜索替代精确求解器可以显著降低许多应用中的计算负担。我们在一个大规模动态带时间窗的车辆路径规划问题上展示了该方法的有效性。
  • 图表
  • 解决问题
    论文试图解决将组合优化问题与神经网络集成时的理论保证不足和使用近似求解器性能不佳的问题,特别是在NP难问题中依赖局部搜索启发式方法的情况。这是一个需要新方法来改进现有技术的问题。
  • 关键思路
    论文提出了一种基于马尔可夫链蒙特卡洛(MCMC)的方法,将问题特定的邻域系统转化为提议分布,从而实现对可行解空间的可微分组合层构建。这种方法通过模拟退火与Metropolis-Hastings算法的联系,允许用局部搜索替代精确求解器,大幅降低计算成本。
  • 其它亮点
    1. 提出了一个理论上严谨的框架,适用于许多NP难问题;2. 在动态车辆路径规划问题(带时间窗)上进行了大规模实验验证;3. 方法可以显著减少学习过程中的计算负担;4. 没有明确提到是否开源代码,但实验设计详实,提供了实际应用场景的支持;5. 值得进一步研究的方向包括扩展到其他组合优化问题以及探索更高效的提议分布。
  • 相关研究
    相关研究包括:1. 使用梯度下降方法结合组合优化的早期工作(例如,Differentiable Combinatorial Optimization via Reinforcement Learning, NeurIPS 2019);2. 集成强化学习和图神经网络的组合优化方法(例如,Learning Heuristics for Constraint Satisfaction Problems Through Reinforcement Learning, ICLR 2020);3. 利用模拟退火或变分推理解决组合优化问题的研究(例如,Combinatorial Optimization with Graph Convolutional Networks and Guided Tree Search, NIPS 2018)。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论