Universal Physics Transformers

2024年02月19日
  • 简介
    深度神经网络在偏微分方程代理方面最近引起了越来越多的关注。然而,类似于它们的数值对应物,在不同的应用中使用不同的技术,即使系统的基本动力学是相似的。一个著名的例子是计算流体动力学中的Lagrangian和Eulerian规范,这对于神经网络有效地模拟基于粒子而不是基于网格的动态构成了挑战。我们引入了通用物理变压器(UPTs),这是一种新的学习范式,可以模拟各种时空问题,包括Lagrangian和Eulerian离散化方案。UPTs在没有基于网格或粒子的潜在结构的情况下运作,可在网格和粒子之间灵活切换。UPTs可以在潜在空间中高效地传播动态,这是通过逆编码和解码技术强调的。最后,UPTs允许在任何时空点查询潜在空间表示。我们展示了UPTs在基于网格的流体模拟、稳态雷诺平均Navier-Stokes模拟和基于Lagrangian的动力学中的有效性。项目页面:https://ml-jku.github.io/UPT。
  • 图表
  • 解决问题
    论文旨在解决基于偏微分方程的深度神经网络模型在不同应用中使用的技术不同的问题,提出一种适用于各种应用的新型学习范式
  • 关键思路
    论文提出了Universal Physics Transformers (UPTs)这一新型学习范式,通过无网格或基于粒子的潜在结构,实现对各种时空问题的建模,同时支持拉格朗日和欧拉离散化方案
  • 其它亮点
    论文在网格流体模拟、雷诺平均纳维-斯托克斯模拟和拉格朗日动力学等方面证明了UPTs的有效性,并可以在任意时空点查询潜在空间表示,同时开源了实验代码,具有较大的应用和推广价值
  • 相关研究
    在近期的相关研究中,也有一些关于使用深度学习模型进行偏微分方程求解的研究,如PINN、DeepXDE等
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论