报告主题:神经网络结构KANs,深度学习新机会——Kolmogorov–Arnold 定理的启发

报告日期:5月29日(周三)10:30-11:30
报告要点
本文受 Kolmogorov-Arnold 表示定理的启发,提出一种新的神经网络结构Kolmogorov-Arnold Networks (KANs),并探究其在数据拟合和偏微分方程求解方面的性能和可解释性,作为多层感知机(MLPs)的有希望的替代品。

KANs使用可学习的边权重激活函数代替了固定的节点激活函数,同时通过样条函数代替线性权重参数,从而在精度和可解释性方面优于传统的Multi-Layer Perceptrons (MLPs)。KANs在数据拟合和偏微分方程求解方面表现优异,且具有更快的神经缩放定律;KANs可视化直观,易于与人类用户进行交互;论文提供了两个数学和物理领域的案例,展示了KANs作为科学家的有用合作伙伴。

KANs使用可学习的边权重激活函数代替了固定的节点激活函数,同时通过样条函数代替线性权重参数,从而在精度和可解释性方面优于传统的Multi-Layer Perceptrons (MLPs)。在准确性方面,KANs 可以通过数据拟合和 PDE 求解实现与 MLPs 相当或更好的准确性,而所需的 KANs 要小得多。从理论和经验上看,KANs 具有比 MLPs 更快的神经缩放定律。在可解释性方面,KANs 可以直观地可视化,并且可以轻松地与人类用户交互。KANs 是 MLPs 的有希望的替代品,为进一步改进今天严重依赖 MLPs 的深度学习模型开辟了机会。在这个领域中,还有一些相关研究,如Neural Ordinary Differential Equations, Neural Tangent Kernels等。

报告嘉宾
刘子鸣,麻省理工学院和 IAIFI 博士生,导师是Max Tegmark,他研究兴趣主要集中在人工智能和物理学交叉领域。他在顶级物理学期刊和人工智能会议上发表论文,担任过 IEEE、Physcial Reviews、NeurIPS、ICLR 等杂志的审稿人,在 NeurIPS2021 和 ICML2022 会议上共同组织了 AI4Science 研讨会。
扫码报名

 

近期热门报告

 

 

内容中包含的图片若涉及版权问题,请及时与我们联系删除