尽管神经网络(NNs)取得了成功并被广泛采用,它们在处理分布外(OOD,Out-of-Distribution)数据时仍然面临挑战,即对训练数据集中未充分表示的输入进行泛化的能力较弱。当模型部署到与训练集显著不同的环境中时,解决OOD泛化差距变得至关重要,例如将训练于小图的图神经网络(GNNs)应用于大型现实世界图。一种实现稳健OOD泛化的有前景的方法是神经算法对齐框架,该框架通过设计类似于特定算法范式(例如动态规划)的神经网络架构,融入了经典算法的思想。期望这种形式的训练模型能够具备更强的OOD能力,就像经典算法可以适用于所有实例一样。我们严格分析了算法对齐在实现OOD泛化中的作用,重点关注应用于经典最短路径问题的图神经网络(GNNs)。我们证明了,通过在少量最短路径实例上最小化稀疏正则化损失训练的GNNs,能够精确实现用于最短路径的贝尔曼-福特(Bellman-Ford, BF)算法。事实上,如果一个GNN将该损失最小化至误差为$\epsilon$,那么它将以$O(\epsilon)$的误差实现BF算法。因此,即使训练数据有限,这些GNNs也能保证外推到任意最短路径问题,包括任意规模的实例。我们的实证结果支持了这一理论,表明通过梯度下降训练的神经网络能够在实践中最小化该损失并实现外推。