- 简介最近的研究探讨了利用知识图谱(KG)来增强大型语言模型(LLM)的问答(QA)性能,但结构化KG的表述仍然具有挑战性。现有的方法,如三元组形式或自由形式文本转换三元组形式的事实,遇到了几个问题。其中包括由于重复实体或关系而导致的证据密度降低,以及由于无法强调关键证据而导致的证据清晰度降低。为了解决这些问题,我们提出了EFSum,一种面向证据的事实摘要框架,用于增强具有知识增强的LLM的QA。我们通过蒸馏和偏好对齐来优化开源LLM作为事实摘要器。我们的广泛实验表明,EFSum提高了LLM的零-shot QA性能,并且可以确保摘要的有用性和忠实性。
-
- 图表
- 解决问题论文旨在提高基于知识图谱的大型语言模型(LLM)的问答性能,通过提出一种面向证据的事实总结框架EFSum来解决现有方法中存在的问题。
- 关键思路EFSum框架优化了LLM作为事实总结器,通过蒸馏和偏好对齐来实现。该框架可以提高LLM的零-shot问答表现,并确保总结的有用性和忠实度。
- 其它亮点实验结果表明EFSum可以提高LLM的零-shot问答表现。该论文提出的EFSum框架能够解决现有方法中存在的问题,并且在证据密度和清晰度方面都有所提高。该论文所使用的数据集和代码都已经公开。
- 最近在这个领域中,还有一些相关的研究,例如KGAT、GraftNet和KGSF等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流