- 简介大语言模型(LLMs)已迅速从文本生成工具演变为强大的问题解决者。然而,许多开放性任务需要批判性思维、多源信息支持以及可验证的输出结果,这些需求超出了单次提示或标准检索增强生成方法的能力范围。近期,大量研究聚焦于“深度研究”(Deep Research, DR),旨在将大语言模型的推理能力与外部工具(如搜索引擎)相结合,从而赋予LLM作为研究代理完成复杂、开放式任务的能力。本综述对深度研究系统提供了全面而系统的概述,包括清晰的发展路线图、基础构成模块、实际实现技术、关键挑战以及未来发展方向。具体而言,我们的主要贡献如下:(i)我们形式化地提出了一个三阶段发展路线,并明确了深度研究与其他相关范式之间的区别;(ii)我们介绍了四个核心组件:查询规划、信息获取、记忆管理与答案生成,并为每个组件配备了细粒度的子分类体系;(iii)我们总结了多种优化技术,包括提示工程、监督微调以及基于智能体的强化学习;(iv)我们整合了评估标准和尚未解决的挑战,旨在为未来的研究发展提供指导与支持。随着深度研究领域持续快速演进,我们将持续更新本综述,以反映该领域的最新进展。
-
- 图表
- 解决问题论文试图解决大型语言模型(LLMs)在面对需要批判性思维、多源信息整合和可验证输出的开放性复杂任务时,传统单次提示或标准检索增强生成方法能力不足的问题。这并非全新问题,但随着LLM应用深化,对自动化深度研究系统的需求日益迫切,成为一个亟待系统化梳理和推进的重要方向。
- 关键思路提出一个结构化的三阶段深度研究(Deep Research, DR)范式,将LLM视为研究代理,通过‘查询规划-信息获取-记忆管理-答案生成’四组件框架实现闭环推理,并整合外部工具(如搜索引擎)进行迭代式信息搜集与验证。相比现有工作,该论文首次对DR进行形式化定义与系统性分类,提供了清晰的技术路线图和模块化解构,推动了从零散方法向体系化框架的演进。
- 其它亮点论文构建了一个全面的DR综述框架,提出了细粒度的子分类体系;总结了包括提示工程、监督微调和基于代理的强化学习在内的优化技术;整理了评估标准与核心挑战;强调将持续更新以反映领域最新进展。虽然本文为综述性质,未报告新实验或开源代码,但其系统性归纳为后续研究提供了重要基础,尤其在记忆管理和多跳推理优化方面值得进一步探索。
- 1. 'Self-RAG: Learning to Retrieve and Generate Autonomously' (2023) 2. 'Graph of Thoughts: Solving Elaborate Problems with Large Language Models' (2023) 3. 'ReAct: Synergizing Reasoning and Acting in Language Models' (2022) 4. 'Toolformer: Language Models Can Teach Themselves to Use Tools' (2023) 5. 'ART: Automatic Multi-Agent Problem Solving with Tool Integration' (2023)
- 1
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流