机器学习运行和应用的前提是一系列的前提,这些前提既是AI的巨大成功,也是ML进一步发展的瓶颈。这些前提包括:数据集上损失函数的独立性假设(假设一);假设空间上的大容量假设,包括解(假设二);训练数据高质量的完备性假设(假设三);欧几里得关于分析框架和方法的假设(假设四)。在这次演讲中,讲者报告了自己的团队在如何突破ML的这些预设并推动ML的发展方面所做的努力和取得的进展。对于假设一,讲者引入噪声建模原理,根据数据样本的分布自适应地设计ML的损失函数,从而为实现ML的健壮性提供了一种通用的方法。对于假设二,讲者提出了模型驱动的深度学习方法来定义深度神经网络的最小假设空间,这不仅产生了非常高效的深度学习,而且为DNN的设计、解释和与传统的基于优化的方法联系提供了一种新的方法。对于假设三,讲者开发了公理课程学习框架,从一个不完整的数据集,由易到难,一步一步地学习模式,从而为处理非常复杂的不完整数据集提供了可行的方法。最后,对于假设四,讲者引入一般的巴拿赫空间几何,特别是徐罗奇定理,作为对ML问题进行非欧几里得分析的可能有用的工具。在每个案例中,讲者都提出了其思想、原理、应用实例和文献。
内容中包含的图片若涉及版权问题,请及时与我们联系删除


评论
沙发等你来抢