- 简介解决大规模线性规划(LP)问题是通信网络、电力系统、金融和物流等各个领域中的重要任务。近年来,出现了两种不同的方法来加速LP求解:(i)一阶方法(FOMs);(ii)学习优化(L2O)。在本文中,我们提出了一种称为PDHG-Net的FOM展开神经网络(NN)架构,并提出了一种两阶段L2O方法来解决大规模LP问题。新的PDHG-Net架构是通过将最近出现的PDHG方法展开成神经网络,结合从图神经网络借鉴的通道扩展技术来设计的。我们证明了所提出的PDHG-Net可以恢复PDHG算法,因此可以用多项式数量的神经元逼近LP实例的最优解。我们提出了一种两阶段推理方法:首先使用PDHG-Net生成近似解,然后应用PDHG算法进一步改进解。实验表明,我们的方法可以显著加速LP求解,相对于FOMs,对于大规模LP问题,速度提高了3倍。
- 图表
- 解决问题本文旨在解决大规模线性规划问题的求解,提出了两种新方法:一种是基于一阶方法(FOMs),另一种是基于学习优化(L2O)的方法。该论文的目标是在大规模LP问题中提高求解速度。
- 关键思路本文提出了一种新的神经网络结构PDHG-Net,将最近提出的PDHG方法展开成神经网络结构,并结合图神经网络的通道扩展技术。该方法将PDHG算法的优点与神经网络的优点相结合,实现了对LP问题的快速求解。
- 其它亮点本文的亮点在于提出了一种新的神经网络结构PDHG-Net,该结构可以在多项式数量的神经元下逼近LP问题的最优解。此外,本文还提出了一种两阶段的推理方法,可以通过PDHG-Net生成近似解,并通过PDHG算法进一步优化解。实验结果表明,该方法可以显著提高LP求解速度,相比FOMs,速度提高了3倍。
- 在该领域的相关研究包括使用FOMs的方法,以及使用深度学习的方法。其中,一些相关的论文包括《Large-Scale Linear Programming with Low-Rank Constraints Using First-Order Methods》和《Learning to Optimize》等。
沙发等你来抢
去评论
评论
沙发等你来抢