关于常识的研究近年来是比较火热的话题,在NLP领域,研究的方向主要有两条线,一是各种benchmark数据集的构建,各种刷榜以测试我们的模型是否具备某些类型的常识;二是常识知识图谱的构建,关注点主要在于如何挖掘常识知识、构建结构化常识知识。两条线的交叉点在于如何利用常识知识辅助各类下游任务。
说到常识知识图谱,大家可能首先想到的是流行的ConceptNet。和常见的知识图谱一样,常识知识图谱用关系三元组(h,r,t)来表示一条常识知识,h和t可以是自然语言组成的单词、短语或者句子,r表示h和t之间的关系。比如在ConceptNet中,关系Causes of的一个三元组是(起床,Causes of,妈妈叫)。
那么除了ConceptNet呢?近年来,得益于众包机制,研究人员们开始构建各种知识图谱(KG)。有正式命名为常识KG的,比如ATOMIC、WebChild;也有包含常识知识但非正式命名为常识KG的知识源,比如WordNet、VerbNet。
所以常识知识领域的研究看起来像是遍地开花,但每个知识源的格式、创建的方法、知识类型的覆盖率都各不相同。对于现存的常识KGs到底包含了哪些类型的常识知识,每个KG对每种类型的覆盖程度是怎样的,以及哪些类型对于下游常识推理任务是有用的,缺乏一个统一的定论。今天给大家介绍的这篇文章,正好填补了这一空缺。
- 论文名称:Dimensions of Commonsense Knowledge
- 论文链接:https://arxiv.org/pdf/2101.04640.pdf
感兴趣的可以继续戳链接。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢