摘要: 近两年来,预训练模型在自然语言处理领域取得了极大的突破。然而,预训练模型是否可以通过“大数据,大模型”的方法成功地学习到常识知识仍然是学术界存在争议的一大问题。本次讲座将结合我和微软研究院同事们在相关领域的一些研究工作,详细解读预训练模型对常识知识的掌握能力,并展望未来的发展趋势。

个人简介: 吴俣,微软亚洲研究院自然语言计算组研究员,主要研究兴趣包括:人机对话,机器翻译、语音识别。于2014年在北京航空航天大学获学士学位,并于同年参与北航-微软亚洲研究院联合培养博士生计划,在2019年获北航工学博士学位。在国际会议和期刊发表论文30余篇,引用900余次,相关技术应用到了微软小冰的对话引擎之中。博士期间曾荣获微软学者奖学金,国家奖学金等奖项。