Think-on-Graph 2.0: Deep and Interpretable Large Language Model Reasoning with Knowledge Graph-guided Retrieval

2024年07月15日
  • 简介
    检索增强生成(RAG)通过实现动态信息检索来减轻生成内容中的知识缺口和幻觉,显著推进了大型语言模型(LLM)的发展。然而,这些系统在复杂推理和跨多样查询的一致性方面经常出现问题。在这项工作中,我们提出了Think-on-Graph 2.0,这是一个增强的RAG框架,它将问题与知识图对齐,并将其用作导航工具,从而加深和完善了信息收集和集成的RAG范例。KG引导的导航促进了深度和长距离的关联,以维护逻辑一致性,并优化检索范围以实现精度和互操作性。同时,通过精确指令引导的语义相似性可以更好地确保事实一致性。ToG${2.0}$不仅提高了LLMs响应的准确性和可靠性,而且展示了混合结构化知识系统显著推进LLM推理并使其更接近人类表现的潜力。我们在四个公共数据集上进行了大量实验,以展示我们的方法与基线相比的优势。
  • 图表
  • 解决问题
    本论文旨在提升Retrieval-augmented generation (RAG)框架的表现,以解决当前RAG系统在处理复杂推理和多样查询时存在的问题。
  • 关键思路
    本文提出了Think-on-Graph 2.0框架,通过将问题与知识图谱对齐,使用它作为导航工具,深化和完善RAG范例的信息收集和整合,从而提高LLMs的响应准确性和可靠性。
  • 其它亮点
    本文的实验结果表明,Think-on-Graph 2.0相比基线方法在四个公共数据集上有明显的优势。该方法不仅提高了LLMs的性能,而且展示了混合结构知识系统在提升LLMs推理能力方面的潜力。
  • 相关研究
    在这个领域中,最近的相关研究包括《Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks》和《Knowledge Graph-Augmented Language Model for Knowledge Base Question Answering》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论