General Agentic Memory Via Deep Research

2025年11月23日
  • 简介
    记忆对人工智能代理至关重要,然而当前广泛采用的静态记忆方式旨在预先创建可随时调用的记忆内容,不可避免地会造成严重的信息丢失。为克服这一局限,我们提出一种名为**通用代理记忆(GAM)**的全新框架。GAM遵循“**即时编译(JIT)**”原则,在离线阶段仅保留简单但有用的记忆内容,而在运行时才专注于为客户动态生成优化的上下文。为此,GAM采用双模块设计,包含以下两个组件:1)**记忆器(Memorizer)**,通过轻量级记忆机制突出关键历史信息,同时将完整的过往记录存储于一个通用的页面存储库中;2)**检索器(Researcher)**,根据预构建的记忆内容,在线从页面存储库中检索并整合相关信息以响应实时请求。该设计使GAM能够有效利用前沿大语言模型(LLMs)所具备的代理能力与测试时可扩展性,同时支持通过强化学习实现端到端的性能优化。在实验研究中,我们验证了GAM在多种基于记忆的任务完成场景下,相较于现有记忆系统实现了显著的性能提升。
  • 作者讲解
  • 图表
  • 解决问题
    论文试图解决现有AI代理内存系统中因静态记忆设计导致的信息丢失问题。传统的静态内存方法预先存储大量信息,但在实际使用时难以有效利用,造成严重的信息损失。这在需要长期依赖历史信息进行复杂任务决策的AI代理场景中成为一个关键瓶颈。该问题虽然已有一定研究,但尚未有高效兼顾信息保留与实时可用性的解决方案,因此仍属于具有挑战性的新问题方向。
  • 关键思路
    提出一种名为“通用代理内存”(General Agentic Memory, GAM)的新框架,其核心思想借鉴软件工程中的“即时编译”(JIT Compilation)理念:在离线阶段仅保存轻量级、高价值的记忆摘要,在在线运行时根据具体请求动态构建优化上下文。GAM采用双模块设计——Memorizer负责提取关键信息并存入轻量记忆,同时将完整历史存于通用页存储(page-store);Researcher则在运行时依据轻量记忆指引,从页存储中检索并整合相关信息,生成高质量上下文。这种“延迟构建上下文”的思路突破了传统静态记忆的范式,显著提升了信息利用率和模型推理质量。
  • 其它亮点
    实验部分在多个基于记忆的任务完成场景中验证了GAM的有效性,结果显示其显著优于现有记忆系统。实验设计覆盖多轮对话、长期规划与复杂推理等典型代理任务,评估指标包括任务成功率、信息召回准确率与上下文相关性。论文虽未明确提及是否开源代码,但其架构设计清晰,具备良好的可复现性。特别值得关注的是,GAM支持通过强化学习实现端到端性能优化,为未来自适应记忆系统的训练提供了新路径。值得深入的研究方向包括:如何自动化定义“关键信息”的提取策略、跨任务迁移记忆结构、以及与前沿大模型(如o1、R1类推理模型)的深度集成。
  • 相关研究
    1. 'Retrieval-Augmented Generation for Large Language Models: A Survey' (2023) 2. 'Think as You Speak: Lazy Planning in Language Agents' (2024) 3. 'MemGPT: Towards LLMs as Learning Systems with Recursive Memory Management' (2023) 4. 'HippoRAG: Facilitating Long-Term Memory in Language Agents through Hierarchical Knowledge Structures' (2024) 5. 'Agent Attention: On-Write Compression and Off-Load for Long-Context Memory' (2024)
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问