— 第一场 — 分享主题:《深度图高斯过程》 分享时间:2020年12月1日(周二)20:00-21:00 分享嘉宾: 李乃琦:清华-伯克利深圳研究生院,2018级博士生,导师为江勇教授,研究方向为高斯过程、图神经网络、贝叶斯机器学习。 李文杰:清华大学深圳国际研究生院,2020级博士生,师从夏树涛教授,研究方向为联邦学习、非参贝叶斯、图神经网络。

分享背景: 高斯过程是概率机器学习中的核心方法,凭借其良好的解析性质和出色的不确定性建模能力,被广泛应用于各类机器学习问题。采用深度学习层次化建模范式的“深度高斯过程”则进一步增强了其建模能力,拓宽了其应用范围。 然而,绝大多数现有方法不能很好的扩展到图结构数据。为了学习图信号之间的映射关系及其不确定性,同时利用图结构的连接信息,我们提出了面向图结构数据的深度图高斯过程DGPG。在较为宽松的理论假设前提下,我们严格证明了DGPG相较原始的深度高斯过程具有更低的采样方差。同时,大量实验分析表明我们的方法不仅能在小数据集上免于过拟合,还能在大数据集上达到与精心设计的神经网络同等水平的性能。此外,DPGP同样继承了高斯过程在不确定性预测和特征相关性发掘方面的良好特性。 分享提纲: 1、问题背景 2、背景知识与相关工作 3、主要工作与贡献:深度图高斯过程 4、实验结果,及在生物信息学中的应用 5、Q&A (不限于论文,欢迎大家一起交流)

— 第二场 — 分享主题:《神经网络小型化: 基于科学控制法的网络剪枝》 分享时间:2020年12月3日(周四)20:00-21:00 分享嘉宾: 唐业辉:北京大学信息科学技术学院三年级博士生,已有多篇文章被CVPR、AAAI等会议接收,研究内容包括深度神经网络正则化方法、模型压缩和网络结构搜索等。

分享背景: 深度神经网络在图像识别、目标检测、视频分析等众多领域有着广泛的应用,但他们所需要的计算资源和存储资源也是巨大的,难以部署于手机、可穿戴设备等边缘平台上。因此压缩模型是神经网络实际部署中的重要一环,而网络剪枝技术可以大幅减小网络的参数量和计算量。本次分享主要介绍一种基于科学控制法的神经网络剪枝方法以及特定场景下的剪枝策略。 分享提纲: 1、神经网络压缩技术的背景和现状 2、基于科学控制法的神经网络剪枝方法(NeurIPS 2020) 3、训练样本不足时的网络剪枝策略 (AAAI 2020) 4、神经网络压缩相关资源推荐

— 第三场 — 分享主题:《基于隐模型的图神经网络设计》 分享时间:2020年12月5日(周六)11:00-12:00 分享嘉宾: 顾方达:加州大学伯克利分校二年级博士生,导师Laurent El Ghaoui。主要研究方向为隐模型(Implicit Model),机器学习模型和优化方法。

分享背景: 图神经网络从图结构中学习表征。但主流图神经网络模型采用有限步数的信息传递,这样得到的表征无法包含长程依赖关系。我们提出基于隐模型(Implicit model)的图神经网络框架,隐图神经网络(Implicit Graph Neural Networks)。框架通过解平衡方程获得图表征,进而学习长程依赖关系。隐图神经网络在很多图任务上取得了优秀的表现。 分享提纲: 1、图神经网络背景和长程依赖关系 2、隐图神经网络模型 3、模型的适定问题和训练 4、隐图神经网络的实验验证

报名请点击【阅读原文】

内容中包含的图片若涉及版权问题,请及时与我们联系删除