- 简介近期文献中的许多研究表明,深度学习在求解偏微分方程(PDEs)方面具有很大的潜力,其可以获得当前数值求解器无法达到的数值解。然而,所有基于数据驱动的神经算子都存在一个问题:训练网络所需的数据依赖于传统数值求解器,例如有限差分或有限元等。本文提出了一种新方法来生成合成的函数训练数据,而不需要数值求解PDE。我们所采用的方法很简单:我们从解空间(例如$H_0^1(\Omega)$)中抽取大量的独立同分布的“随机函数”$u_j$,这个解空间是根据经典理论得出的。然后,我们将每个随机的候选解插入方程中,得到相应的右手边函数$f_j$,并将$(f_j, u_j)_{j=1}^N$作为监督训练数据来学习底层的反问题$f\rightarrow u$。这种“反向”生成训练数据的方法只需要进行导数计算,而不需要数值PDE求解器,使我们能够快速高效地生成大量这样的数据点。虽然这个想法很简单,但我们希望这种方法将扩展发展神经PDE求解器的潜力,使其不再依赖于传统的数值求解器。
- 图表
- 解决问题解决问题:论文试图通过提出一种新的方法,解决神经偏微分方程求解器中需要依赖传统数值求解器的问题。
- 关键思路关键思路:论文提出了一种新的方法来生成合成的函数训练数据,该方法不需要通过数值求解器求解偏微分方程。
- 其它亮点其他亮点:该方法只需要进行导数计算,可以快速高效地生成大量的训练数据。实验结果表明,该方法在准确性和效率方面都表现出色。论文未公开代码,但提供了数据集。这种方法可能会为神经偏微分方程求解器的发展提供新的思路。
- 相关研究:最近的相关研究包括:DeepXDE、PINN、Physics-Informed Neural Networks等。
沙发等你来抢
去评论
评论
沙发等你来抢