MixFunn: A Neural Network for Differential Equations with Improved Generalization and Interpretability

2025年03月28日
  • 简介
    我们提出了MixFunn,这是一种新型的神经网络架构,旨在以更高的精度、更强的可解释性和更好的泛化能力求解微分方程。该架构包含两个关键组件:混合函数神经元(mixed-function neuron),它通过整合多个参数化的非线性函数来提高表示的灵活性;以及二阶神经元(second-order neuron),它将输入的线性变换与二次项相结合,从而捕捉输入变量之间的交叉组合。这些特性显著增强了网络的表达能力,使其能够在参数数量大幅减少的情况下实现与传统方法相当或更优的结果,相比常规方法,参数量最多可减少四个数量级。我们将MixFunn应用于物理信息场景中,用于求解经典力学、量子力学和流体力学中的微分方程,证明了其在提高准确性以及在训练域外区域的泛化能力方面的有效性,表现优于标准机器学习模型。此外,该架构还便于提取可解释的解析表达式,为理解潜在的解决方案提供了有价值的见解。
  • 图表
  • 解决问题
    论文试图通过提出一种新型神经网络架构MixFunn来解决微分方程求解问题,特别是提升求解精度、可解释性和泛化能力。这是一个重要的研究方向,但并非全新的问题,因为已有许多工作尝试用机器学习方法解决微分方程。
  • 关键思路
    论文的关键思路是设计了一种混合功能神经元(mixed-function neuron)和二阶神经元(second-order neuron)的架构。混合功能神经元通过集成多种参数化非线性函数增强了模型的表达能力,而二阶神经元则通过引入二次项捕捉输入变量之间的交叉组合关系。相比现有方法,MixFunn显著减少了参数量,并在物理信息设置下表现出更高的准确性和更好的泛化性能。
  • 其它亮点
    论文在经典力学、量子力学和流体力学等多个领域测试了MixFunn的有效性,展示了其在未见数据上的优异泛化能力。此外,MixFunn能够提取出可解释的解析表达式,为理解微分方程的解提供了新视角。虽然摘要中未提及,但值得进一步确认是否提供了开源代码或详细实验配置。未来可以探索MixFunn在更复杂物理系统中的应用,例如多尺度或多物理场问题。
  • 相关研究
    近期相关研究包括:1) Physics-Informed Neural Networks (PINNs),用于结合物理约束优化神经网络;2) Fourier Neural Operator (FNO),通过频域操作高效求解偏微分方程;3) DeepONet,专注于学习算子映射以解决微分方程。其他类似工作如《Solving Parametric PDE Problems with Physics-Informed Neural Networks》和《Neural Ordinary Differential Equations》也值得关注。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论