给定一个机器学习模型,在近似、估计和优化误差的收敛速度不会随着维数的增加而恶化的意义上,什么样的函数可以用这个特定的模型有效地逼近?我们针对三类机器学习模型解决这个问题:随机特征模型,两层神经网络和残差神经网络模型。在此过程中,我们还将总结深度学习理论基础的现状,并讨论一些关键的开放性问题。
鄂维南,中国科学院院士,北京大数据研究院院长、北京科学智能研究院(AI for Science Institute,Beijing)院长,北京大学国际机器学习研究中心主任,美国数学学会、美国工业与应用数学学会 Fellow。研究领域为应用数学。多次受邀在数学、应用数学、物理、化学、力学等领域的国际顶会上发表报告。2003 年获国际工业与应用数学协会 Collatz 奖。2009 年获美国工业与应用数学学会 Kleinman 奖。2014 年获美国工业与应用数学学会 Theodore von Karman 奖。2019 年获得美国工业与应用数学学会和 ETH 共同颁发的 Henrici奖。2020 年获 ACM Gordon Bell 奖。
本演讲回顾了基于神经网络的机器学习数学理论领域的现状。他工作的中心主题是对高维函数的理解。他一开始就说,“机器学习是解决一些标准的数学问题,但是在非常高的维度上”。在数学的这个背景下,人们可以认为监督学习是使用有限的训练集逼近目标函数。使用图像分类的例子,我们感兴趣的函数是将每个图像映射到其类别的函数。我们知道函数在有限样本上的值(标签),目标是找到函数的精确逼近。
视频地址:https://slideslive.com/embed/presentation/38988071?embed_parent_url=https%3A%2F%2Ficml.cc%2Fvirtual%2F2022%2Finvited-talk%2F18430&embed_container_origin=https%3A%2F%2Ficml.cc&embed_container_id=presentation-embed-38988071&auto_load=true&auto_play=false&zoom_ratio=&disable_fullscreen=false&locale=zh&vertical_enabled=true&vertical_enabled_on_mobile=false&allow_hidden_controls_when_paused=true&fit_to_viewport=true&user_uuid=a395fe83-98b9-47fa-b7ca-9e11cd956071
PDF地址:https://web.math.princeton.edu/~weinan/ICML.pdf
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢