摘要: 现有神经机器翻译由于搜索空间巨大,所以采用确定性假设对建模进行简化,即训练时模型只能生成参考译文,具体体现在:只采用参考译文作为上文、只采用单模型确定性的生成参考译文、参数训练时模型必须逐词匹配参考译文。这与现实世界中每个源句子通常有多种翻译相矛盾。在本报告中,我们将摈弃确定性假设,分别对以上三个问题提出了解决方案,即:将参考译文和模型生成译文有计划的作为上文、采用贝叶斯模型进行多模型翻译、序列级参数训练。

简介: 冯洋,中科院计算所研究员、博士生导师、“新百星人才引进计划”入选者、2019年度“卓越之星”获得者,主要研究方向为自然语言处理、机器翻译和人机对话。博士毕业后先后在谢菲尔德大学和南加州大学信息科学研究所(USC/ISI)开展研究工作。担任ACL、EMNLP、COLING等国内外会议领域共同主席、国际期刊《the Northern European Journal of Language Technology》编委,获得ACL 2019最佳长文奖、2020世界人工智能大会青年优秀论文,获得NLPCC 2019 “青年新锐奖,并入选人工智能学会首批杰出会员。多次在NIST、CWMT等国内外权威机器翻译评测中获得第一名,获得世界最大规模的第八届对话系统技术挑战赛(DSTC8)视听场景感知对话第一名。作为项目负责人主持国家重点研发计划、国家自然科学基金面上项目等。

内容中包含的图片若涉及版权问题,请及时与我们联系删除