Multi-Review Fusion-in-Context

2024年03月22日
  • 简介
    生成基于事实的文本,包括长篇问答和摘要等任务,需要进行内容选择和内容整合。由于端到端方法的不透明性,目前的方法很难进行控制和解释。因此,最近的研究提出了一种模块化方法,每个步骤都有单独的组件。具体而言,我们关注于第二个子任务,即在多文档环境下,给定预先选择的内容生成连贯的文本。具体而言,我们将“上下文融合”(FiC)形式化为一个独立的任务,其输入包括带有目标内容高亮部分的源文本。然后模型需要生成一个连贯的段落,其中包括所有目标信息,且仅包括目标信息。我们的工作包括在评论领域开发了一个策划数据集,包括1000个实例,以及用于评估高亮部分忠实度和覆盖范围的新型评估框架,其与人类判断具有很强的相关性。几个基线模型显示出有希望的结果,并提供有见地的分析。这项研究为进一步探索多文档环境下的模块化文本生成奠定了基础,为生成内容的质量和可靠性的潜在提高提供了可能。我们的基准测试FuseReviews,包括数据集、评估框架和指定的排行榜,可以在\url{https://fusereviews.github.io/}找到。
  • 图表
  • 解决问题
    本论文试图解决多文档环境下生成连贯文本的问题,提出了一种分离式的生成模型,即Fusion-in-Context(FiC)任务。
  • 关键思路
    FiC任务的输入包括带有高亮标记的源文本,模型需要生成包含所有目标信息的连贯段落。论文提出了一个包含1000个实例的数据集FuseReviews,并设计了一个新的评估框架来评估高亮的准确性和覆盖范围,多个基线模型表现良好。
  • 其它亮点
    本论文的亮点包括:提出了FiC任务,开发了一个新的数据集FuseReviews,设计了一个新的评估框架,多个基线模型表现良好。
  • 相关研究
    最近在这个领域中,还有一些相关研究,例如: 1. A Modular Approach to Neural Text Generation 2. Content Selection in Multi-Source Neural Text Generation 3. Neural Text Generation with Unlikelihood Training
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论