Graph Chain-of-Thought: Augmenting Large Language Models by Reasoning on Graphs

2024年04月10日
  • 简介
    大型语言模型(LLMs)在表现方面表现出色,但在知识密集型任务中容易出现幻觉。现有的研究提出了使用从外部知识语料库中检索的单个文本单元来缓解这个问题。然而,在许多领域中,文本是相互关联的(例如,文献图表中的学术论文通过引用和共同作者连接在一起),形成了一个(文本属性)图形。这些图中的知识不仅编码在单个文本/节点中,而且还编码在它们的关联连接中。为了促进使用图形增强LLMs的研究,我们手动构建了一个名为GRBench的图形推理基准数据集,其中包含可以用来回答来自10个领域图形的知识的1,740个问题。然后,我们提出了一个简单而有效的框架,称为Graph Chain-of-thought(Graph-CoT),通过鼓励LLMs迭代地在图形上进行推理来增强LLMs与图形。每个Graph-CoT迭代包括三个子步骤:LLM推理、LLM-图形交互和图形执行。我们在GRBench上使用三个LLM骨干系统进行系统实验,其中Graph-CoT始终优于基线。代码可在https://github.com/PeterGriffinJin/Graph-CoT上获得。
  • 图表
  • 解决问题
    本论文旨在解决大型语言模型在知识密集型任务中出现幻觉的问题,提出了一种基于图的方法来增强大型语言模型的知识表示能力。
  • 关键思路
    论文提出了一种名为Graph-CoT的框架,通过迭代地让大型语言模型在图上进行推理,从而增强其知识表示能力。
  • 其它亮点
    本论文构建了一个名为GRBench的图推理基准数据集,包含了10个领域图上的1,740个问题。实验结果表明,Graph-CoT框架在GRBench数据集上表现出色,优于其他基线模型。此外,作者还提供了开源代码。
  • 相关研究
    与本论文相关的研究包括使用外部知识库来增强大型语言模型的方法。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论