深度学习的可解释性研究在近年来顶会的录取文献词云上频频上榜,越来越多的研究工作表明,打开深度学习的黑盒并不是那么遥不可及。这些工作令人们更加信赖深度学习算法生成的结果,也通过分析模型工作的机理,让新的深度学习工作更加可靠。不同于其他子学科的研究,可解释性的研究范式通常因人而异,不同的工作往往从不同的视角来理解深度学习模型,使用的研究方法也相距甚远,如何分类,可解释性的研究范式如何划分?我们需要一个系统性的整理。

近日,南方科技大学张宇博士(唐珂教授2017级在读博士)发表一篇神经网络可解释性综述《A Survey on Neural Network Interpretability》,对该领域的最新进展做了完整梳理。为我们提供了看待该领域工作的一种划分方案,和最新工作的总结。智源社区特邀请张宇博士就相关内容做报告分享,欢迎大家交流。

相关资料如下 PPT 下载 视频回放 解读文章

扫描下方二维码,申请加入[智源月旦 - 可解释性研究组」,与领域内海内外青年科学家交流讨论,建立联系;自由表达观点,探讨前沿课题,共享学科前沿资料信息。

点赞 收藏 评论 分享到Link

沙发等你来抢

去评论