报告摘要: 随着大数据的发展和硬件算力的提升,机器学习,特别是深度学习的发展十分迅猛,各类复杂的模型网络结构层出不穷。而在实际应用中,深度学习模型往往伴随着不透明性和不可解释性。我们无法了解深度学习这类“黑盒”模型的决策过程,因此也无法对模型结果的用户说明模型结论的原因。不可解释的深度学习模型,是人工智能在众多领域实际应用的一道屏障。知识图谱的结合正是为了结合“黑盒”和“逻辑”的双边优势。通过海量实体、关系和属性的表示,知识图谱部分模拟了人脑的认知过程。将知识图谱和机器学习模型相融合,可以辅助机器理解和解释概念,从而让机器的部分决策过程具有一定的可解释性。
报告人简介: 焦晓康,医渡云算法工程师,本硕分别毕业于加州大学尔湾分校与纽约大学计算机科学专业。主攻医疗自然语言处理领域。曾于英特尔和微软从事单片机开发和机器学习的相关研究工作。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢