Self-Improved Learning for Scalable Neural Combinatorial Optimization

2024年03月28日
  • 简介
    这篇论文介绍了端到端的神经组合优化(NCO)方法在解决复杂组合优化问题上的良好表现,而无需专家设计。然而,现有方法在处理大规模问题时遇到困难,限制了它们的实际应用。为了克服这个限制,本文提出了一种新颖的自我改进学习(SIL)方法,以更好地扩展神经组合优化。具体而言,我们开发了一种高效的自我改进机制,使得可以在没有标记数据的情况下直接对大规模问题实例进行模型训练。该方法由创新的本地重构方法驱动,可以通过自身迭代生成更好的解作为伪标签,以指导有效的模型训练。此外,我们为模型设计了一个线性复杂度的注意机制,以处理低计算开销的大规模组合问题实例。在旅行商问题(TSP)和带容量车辆路径问题(CVRP)上的全面实验中,包括均匀和真实世界分布,我们的方法展示了卓越的可扩展性,可以处理高达100K节点的问题。
  • 图表
  • 解决问题
    提高神经组合优化方法的可扩展性
  • 关键思路
    提出自我改进的学习方法(SIL)
  • 其它亮点
    使用SIL方法实现直接模型训练,无需标记数据,通过局部重构方法迭代生成更好的伪标签,设计了线性复杂度的注意机制以处理大规模组合问题实例,实验结果表明该方法的可扩展性优于现有方法
  • 相关研究
    最近的相关研究包括End-to-End Learning for Combinatorial Optimization with Attention Mechanism和Neural Combinatorial Optimization with Reinforcement Learning等
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论