摘要: 机器学习的可理解性指的是以用户可理解的,直截了当的方式解释模型预测值的程度。近年来,深度学习已经在自然语言处理中取得成功应用,大幅度提升了各种任务的性能,但由于其内在复杂性,可理解性和可解释性不够令人满意,也妨碍了深度学习方法的进一步推广。该报告首先介绍什么是可理解分析,自然语言处理中有哪些可理解分析,可理解分析的目的,然后从理解模型部件的功能属性、解释模型预测的行为、模型诊断三个方面介绍可理解分析在自然语言处理领域的发展现状,以及复旦大学团队在自然语言处理可理解分析方面取得的成果,最后展望了未来的研究趋势。
简介: 黄萱菁,复旦大学计算机科学技术学院教授、博士生导师,主要从事自然语言处理、信息检索和社会媒体分析研究。兼任中国中文信息学会常务理事、社会媒体专委会副主任,中国计算机学会自然语言处理专委会副主任、学术工作委员会委员。在高水平国际学术期刊和会议上发表了百余篇论文,负责的多个科研项目受到国家自然科学基金、科技部、教育部、上海市科委的支持。入选由清华—中国工程院知识智能联合研究中心和清华大学人工智能研究院联合发布的“2020年度人工智能全球女性”,“2020年度AI 2000人工智能全球最具影响力提名学者”及“福布斯中国2020科技女性榜
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢