论文标题:

Function-words Adaptively Enhanced Attention Networks for Few-Shot Inverse Relation Classification

收录会议:

IJCAI 2022

论文链接:

http://arxiv.org/abs/2204.12111

代码链接:

https://github.com/DOU123321/FAEA-FSRC

小样本关系分类(Few-shot Relations Classification, FSRC)旨在仅有少量样本下识别给定文本中两个实体间的语义关系。逆关系在小样本关系分类中普遍存在,其具有相似的语义和不同的语法结构,所以区分逆关系的关键是捕捉语法结构差异。现有工作采用语义级注意力机制关注表达语义的实词(例如,名词或动词),而表达语法结构的虚词大多被忽略,对逆关系分类的性能显著降低。
本文提出了一个自适应增强虚词注意力的框架(Function words Adaptively Enhanced Attention Networks, FAEA)用于小样本逆关系分类。在 FAEA 中,设计了一个基于元学习的混合注意力模型来关注类别相关的虚词。由于虚词的引入带来了显著的类内冗余,因此设计了一种自适应消息传递机制在实例间捕获和传递类间差异信息和类内共性信息。最后,我们从理论上证明设计的信息传递机制有效消减虚词引入带来的类内冗余。在公开的小样本关系分类数据集 FewRel1.0 和 FewRel2.0 上的实验证明了我们提出的方法的有效性。

内容中包含的图片若涉及版权问题,请及时与我们联系删除