- 简介现有的知识库问答(KBQA)方法通常依赖于多阶段的方法,包括实体链接、子图检索和查询结构生成等任务。然而,多阶段方法依赖于前面步骤的准确性,导致级联错误和推理时间的增加。虽然一些研究探索了使用端到端模型的方法,但它们往往具有较低的准确性,并生成不受基础数据支持的无法操作的查询。此外,大多数先前的方法仅限于静态训练数据,可能忽视知识库随时间而演变的特性。为了解决这些挑战,我们提出了一种新颖的端到端自然语言到SPARQL框架,即SPARKLE。值得注意的是,SPARKLE在解码过程中直接利用知识库的结构,有效地将知识集成到查询生成中。我们的研究表明,仅在推理过程中引用知识库就可以显著减少无法执行的查询生成的发生率。SPARKLE在SimpleQuestions-Wiki数据集上实现了新的最先进结果,并在LCQuAD 1.0数据集上获得了最高的F1分数(不使用金实体的模型中),而在WebQSP数据集上略微降低了结果。最后,我们展示了SPARKLE的快速推理速度以及它在训练和推理阶段之间适应知识库不同的能力。
- 图表
- 解决问题SPARKLE: 一种基于知识库的自然语言到SPARQL的端到端框架
- 关键思路SPARKLE直接利用知识库结构进行解码,有效地将知识集成到查询生成中,从而减少不可执行查询的生成
- 其它亮点SPARKLE在SimpleQuestions-Wiki数据集上取得了新的最佳结果,在LCQuAD 1.0上获得了最高的F1分数,证明了SPARKLE的有效性和适应性。实验设计合理,代码开源。
- 与该论文相关的其他研究包括:MultiHopKG、Krantikari、NSpM、KBQA等。
沙发等你来抢
去评论
评论
沙发等你来抢