PDHG-Unrolled Learning-to-Optimize Method for Large-Scale Linear Programming

2024年06月04日
  • 简介
    解决大规模线性规划(LP)问题是通信网络、电力系统、金融和物流等各个领域中的重要任务。近年来,出现了两种不同的方法来加速LP求解:(i)一阶方法(FOMs);(ii)学习优化(L2O)。在本文中,我们提出了一种称为PDHG-Net的FOM展开神经网络(NN)架构,并提出了一种两阶段L2O方法来解决大规模LP问题。新的PDHG-Net架构是通过将最近出现的PDHG方法展开成神经网络,结合从图神经网络借鉴的通道扩展技术来设计的。我们证明了所提出的PDHG-Net可以恢复PDHG算法,因此可以用多项式数量的神经元逼近LP实例的最优解。我们提出了一种两阶段推理方法:首先使用PDHG-Net生成近似解,然后应用PDHG算法进一步改进解。实验表明,我们的方法可以显著加速LP求解,相对于FOMs,对于大规模LP问题,速度提高了3倍。
  • 图表
  • 解决问题
    本文旨在解决大规模线性规划问题的求解,提出了两种新方法:一种是基于一阶方法(FOMs),另一种是基于学习优化(L2O)的方法。该论文的目标是在大规模LP问题中提高求解速度。
  • 关键思路
    本文提出了一种新的神经网络结构PDHG-Net,将最近提出的PDHG方法展开成神经网络结构,并结合图神经网络的通道扩展技术。该方法将PDHG算法的优点与神经网络的优点相结合,实现了对LP问题的快速求解。
  • 其它亮点
    本文的亮点在于提出了一种新的神经网络结构PDHG-Net,该结构可以在多项式数量的神经元下逼近LP问题的最优解。此外,本文还提出了一种两阶段的推理方法,可以通过PDHG-Net生成近似解,并通过PDHG算法进一步优化解。实验结果表明,该方法可以显著提高LP求解速度,相比FOMs,速度提高了3倍。
  • 相关研究
    在该领域的相关研究包括使用FOMs的方法,以及使用深度学习的方法。其中,一些相关的论文包括《Large-Scale Linear Programming with Low-Rank Constraints Using First-Order Methods》和《Learning to Optimize》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论