KAG: Boosting LLMs in Professional Domains via Knowledge Augmented Generation

  • 简介
    最近开发的检索增强生成(RAG)技术使得领域特定应用程序的高效构建成为可能。然而,它也存在局限性,包括向量相似度和知识推理相关性之间的差距,以及对数字值、时间关系、专家规则等知识逻辑的不敏感,这些都妨碍了专业知识服务的有效性。在这项工作中,我们介绍了一个名为知识增强生成(KAG)的专业领域知识服务框架。KAG旨在通过双向增强大型语言模型(LLMs)和知识图(KG),充分利用知识图的优势和向量检索,并通过五个关键方面来改进生成和推理性能:(1)LLM友好的知识表示,(2)知识图与原始块之间的相互索引,(3)逻辑形式引导的混合推理引擎,(4)语义推理的知识对齐,以及(5)KAG模型能力增强。我们在多跳问答中将KAG与现有的RAG方法进行了比较,并发现它在F1得分方面相对于最先进的方法在2wiki上提高了19.6%,在hotpotQA上提高了33.5%。我们已成功将KAG应用于蚂蚁金服的两个专业知识问答任务,包括电子政务问答和电子健康问答,在专业性方面相对于RAG方法取得了显著的改进。
  • 图表
  • 解决问题
    本论文试图通过Knowledge Augmented Generation (KAG)框架解决retrieval-augmented generation (RAG)技术在专业领域知识服务中的不足,如向量相似性与知识推理相关性的差距,以及对数字值、时间关系、专家规则等知识逻辑的不敏感。
  • 关键思路
    KAG框架通过优化大型语言模型和知识图谱之间的相互作用,包括LLM友好的知识表示、知识图谱和原始块之间的相互索引、逻辑形式引导的混合推理引擎、语义推理的知识对齐以及模型能力增强等五个方面,来提高生成和推理性能。
  • 其它亮点
    论文在多跳问答任务中对KAG进行了评估,并与现有的RAG方法进行了比较,结果表明KAG在F1得分方面相对于现有方法提高了19.6%(2wiki)和33.5%(hotpotQA)。此外,论文还将KAG成功应用于蚂蚁金服的两个专业知识问答任务中,包括电子政务问答和电子健康问答,相对于RAG方法实现了显著的专业性提升。
  • 相关研究
    最近在这个领域中,还有一些相关的研究,如《Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks》、《Knowledge Graph Embedding: A Survey of Approaches and Applications》等。
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论