- 简介关系抽取(RE)是自然语言处理中的一项基本任务,旨在识别文本中目标实体之间的关系。虽然许多RE方法是为单个句子或文档设计的,但跨文档RE已经出现,以解决跨多个长文档的关系。由于预训练语言模型的长度限制,提取文档嵌入在跨文档RE中具有挑战性。因此,我们提出了基于奖励的输入构造(REIC),这是第一个用于跨文档RE的基于学习的句子选择器。REIC基于关系证据提取句子,使RE模块能够有效地推断关系。由于证据句子的监督通常不可用,我们使用强化学习以RE预测分数作为奖励来训练REIC。实验结果表明,我们的方法在跨文档RE中的不同RE结构和骨干上优于启发式方法。我们的代码可在https://github.com/aailabkaist/REIC上公开获取。
- 图表
- 解决问题本论文旨在解决跨文档关系抽取中的文本长度限制问题,提出了一种基于奖励的输入构造(REIC)方法,通过强化学习训练句子选择器来提取具有关系证据的句子,从而有效地推断跨文档关系。
- 关键思路本论文的关键思路是使用奖励机制,将关系预测得分作为奖励信号来训练句子选择器,以提取具有关系证据的句子,从而解决跨文档关系抽取中的文本长度限制问题。
- 其它亮点本论文的亮点在于提出了一种新颖的基于奖励的输入构造(REIC)方法来解决跨文档关系抽取中的文本长度限制问题。实验结果表明,该方法在不同的跨文档关系结构和模型中均表现出优越性。论文代码已公开发布在GitHub上。
- 在相关研究方面,最近的研究包括使用图神经网络进行跨文档关系抽取(Cross-Document Relation Extraction with a Graph Convolutional Network)和使用迁移学习进行跨文档关系抽取(Cross-Document Relation Extraction via Transfer Learning)。
沙发等你来抢
去评论
评论
沙发等你来抢