报告主题:RAG最全综述:大语言模型检索增强生成技术的挑战与前景

报告日期:11月12日(周三)10:30-11:30

报告要点:
本期报告将由南洋理工大学王永杰进行分享。
大型语言模型在自然语言理解与生成方面取得了突破性进展, 然而大模型在应对快速变化的信息或特定领域的知识时仍面临显著局限。检索增强生成(RAG)通过将大模型内部与外部检索系统结合,使模型能够动态获取最新、最相关的外部知识,从而弥补其内部知识的时效性与覆盖范围不足。随着LLMs的快速演化和性能提升,RAG的相对优势逐渐减弱,引发了学界对其必要性与未来方向的重新思考。
本报告系统回顾近年RAG的发展脉络,明确其研究目标,阐述RAG的研究目标,剖析其RAG系统结构及关键模块。在此基础上,我们探讨制约RAG有效性的核心难题,包括:对检索质量的高度依赖、检索噪声引入与传播、外部证据与模型参数记忆之间的知识冲突,以及检索—生成闭环中的推理与决策缺陷。我们旨在思考未来检索范式的设计,期望为构建更稳健、高效、可解释的知识增强生成系统提供启发。
报告嘉宾:
王永杰,南洋理工大学研究员,博士毕业于南洋理工大学,师从苗春燕教授。主要研究方向包括可信大语言模型(Trustworthy LLMs)、检索增强生成(Retrieval-Augmented Generation)以及可解释人工智能算法 (explainable AI)。长期致力于大模型在安全性、透明性与可控性方面的研究与实践,在自然语言处理及可解释人工智能领域的国际会议和期刊(如 ACL、EMNLP、ICDM、TKDD、FAccT 等)发表论文十余篇。个人主页: https://wangyongjie-ntu.github.io/

扫码报名


更多热门报告

内容中包含的图片若涉及版权问题,请及时与我们联系删除