最新消息,华人学者 Steven Y. Feng 与四位学者Jessica Huynh、Chaitanya Narisetty、Eduard Hovy与Varun Gangal 共同发表的题为“SAPPHIIRE: Approaches for Enhanced Concept-to-Text Generation”的研究论文获得了2021年 INLG 的最佳长论文奖!
今晚,论文作者 Steven Y. Feng 将作为代表出席第14届INLG会议,线上分享自然语言生成的团队研究。
Steven Y. Feng,现为卡耐基梅隆大学(CMU)研究生,对NLP、机器学习、深度学习和人工智能研究有着丰富的经验和极高的研究热情。
个人主页:https://mobile.twitter.com/stevenyfeng
论文地址:tinyurl.com/sapphirelNLG
人类能够从常识推理,甚至反演,这种能力可以定义为从一组概念生成逻辑句子来描述日常场景。在这种情况下,这些概念是必须以某种形式在输出文本中表示的单个单词。
因此,论文作者提出了一套简单而有效的概念到文本生成改进方案,称为“SAPPHIRE”。具体来说,SAPPHIRE由两种主要方法组成:
1)增加输入概念集
2)将从baseline中提取的短语重组成更流畅、更有逻辑的文本。这些主要是与模型无关的(model-agnostic)改进,分别依赖于数据本身和模型自己的初始代。
通过使用BART和T5模型的实验,他们证明了这两种模型在CommonGen任务上的有效性。通过广泛的自动和人工评估,SAPPHIRE能显著提高模型的性能。深入的定性分析表明,SAPPHIRE有效地解决了基线模型生成的许多问题,包括缺乏常识、不够具体和流利性差等问题。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢