在自然语言处理和知识图谱领域的信息提取中,三元组抽取是必不可少的任务。在本文中,研究人员重新审视了用于序列生成的端到端三元组抽取任务。由于生成三元组抽取可能难以捕获长期依赖关系并生成不忠实的三元组,因此本文引入了一种新的模型,即使用生成式Transformer的对比学习三元组抽取框架。

具体来说,本文介绍了一个共享的Transformer模块,用于基于编码器-解码器的生成。为了产生忠实的结果,作者提出了一种新颖的三元组对比学习训练框架。此外,本文引入了两种机制来进一步改善模型的性能,即分批动态注意掩码和三元组校准。在三个数据集(NYT,WebNLG和MIE)上的实验结果表明,本文的方法比基线具有更好的性能。代码和数据集将在论文出版后发布。

感兴趣的可以戳链接。

内容中包含的图片若涉及版权问题,请及时与我们联系删除