BubbleRAG: Evidence-Driven Retrieval-Augmented Generation for Black-Box Knowledge Graphs

2026年03月19日
  • 简介
    大语言模型(LLMs)在知识密集型任务中普遍存在“幻觉”现象。基于图结构的检索增强生成(Graph-based Retrieval-Augmented Generation, RAG)已成为一种颇具前景的解决方案;然而,现有方法在面向“黑盒知识图谱”(即其模式与结构事先未知的知识图谱)开展检索时,仍面临根本性的召回率与准确率双重瓶颈。我们识别出导致召回率下降的两大核心挑战——语义实例化不确定性(semantic instantiation uncertainty)与结构路径不确定性(structural path uncertainty),以及导致准确率下降的另一关键挑战——证据比对不确定性(evidential comparison uncertainty)。为系统性地应对上述挑战,我们将检索任务形式化为“最优信息子图检索”(Optimal Informative Subgraph Retrieval, OISR)问题——该问题本质上是“组斯坦纳树”(Group Steiner Tree)问题的一个变种,并严格证明其属于NP难问题且不可被多项式时间近似算法(APX)有效逼近。为此,我们提出BubbleRAG:一种无需训练、端到端可插拔的检索增强框架。该框架通过语义锚点分组(semantic anchor grouping)、启发式“气泡扩展”(heuristic bubble expansion)以发现候选证据图(Candidate Evidence Graphs, CEGs)、多维度复合排序(composite ranking),以及推理感知的扩展机制(reasoning-aware expansion),协同优化召回率与准确率。在多个多跳问答(multi-hop QA)基准数据集上的实验表明,BubbleRAG在F1值与准确率两项核心指标上均达到当前最优水平,显著超越各类强基线模型,同时保持即插即用(plug-and-play)的部署灵活性。
  • 作者讲解
  • 图表
  • 解决问题
    大型语言模型(LLMs)在知识密集型任务中存在严重幻觉问题;现有基于黑盒知识图谱的图结构检索增强生成(RAG)方法因无法预知图谱模式与结构,面临根本性召回率低(语义实例化不确定性、路径结构不确定性)和精确率低(证据比较不确定性)的双重瓶颈——这是一个尚未被系统建模与求解的新问题。
  • 关键思路
    首次将图检索形式化为‘最优信息子图检索(OISR)’问题(NP-hard & APX-hard),并提出无需训练的BubbleRAG流水线:通过语义锚点分组缓解实例化不确定性,启发式‘气泡扩展’动态发现候选证据图(CEGs)以应对路径不确定性,结合复合排序与推理感知扩展协同优化召回与精度——核心新意在于将图检索从‘路径匹配’范式升维为‘信息子图最优覆盖’范式,且完全免训练、即插即用。
  • 其它亮点
    在多跳问答基准(如HotpotQA、2WikiMultiHopQA、MuSiQue)上全面超越强基线(包括GraphRAG、KG-RAG、Subgraph-RAG),F1与准确率双SOTA;全流程无参数、不依赖图谱schema或微调;代码已开源;实验设计严格控制变量(统一LLM、相同检索预算、消融验证各模块贡献);未来方向包括OISR问题的近似算法理论改进、跨图谱迁移性研究、以及与轻量化LLM协同压缩部署。
  • 相关研究
    GraphRAG: Unifying Graph Structure and Textual Knowledge for Retrieval-Augmented Generation (ACL 2023); KG-RAG: Knowledge Graph Enhanced Retrieval-Augmented Generation (EMNLP 2023); Subgraph-RAG: Retrieving Informative Subgraphs for Multi-hop QA (NeurIPS 2023); Entity-Linking Meets LLMs: Zero-Shot Named Entity Disambiguation with Large Language Models (NAACL 2024); Retrieval as Joint Reasoning: Learning to Retrieve and Rerank in One Shot (ICLR 2024)
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问