SheepNav
新上线今天0 投票

EvolveMem:让LLM智能体记忆系统自主进化,检索机制不再一成不变

核心突破:记忆架构的“双层次”自进化

大语言模型(LLM)智能体在跨会话任务中依赖长期记忆,但现有系统仅让存储内容动态更新,而检索机制(如评分函数、融合策略、答案生成规则)在部署后便固定不变。这一缺陷限制了智能体的持续适应能力。

最新论文《EvolveMem: Self-Evolving Memory Architecture via AutoResearch for LLM Agents》提出了一种自进化记忆架构,首次实现记忆存储与检索机制的协同进化。其核心是将完整的检索配置暴露为结构化动作空间,由一个 LLM驱动的诊断模块 进行优化。

工作原理:闭环自研(AutoResearch)

EvolveMem 的工作流程类似一个自动化研究循环:

  1. 诊断:模块读取每个问题的失败日志,识别根因;
  2. 调整:提出针对性的配置调整方案;
  3. 验证:通过“回退退化”和“停滞探索”双重保护机制,确保进化稳定。

这种设计使系统从极简基线出发,自动收敛到高效检索策略,甚至能发现原始动作空间中不存在的全新配置维度。

性能表现:显著超越现有基线

LoCoMo 基准上,EvolveMem 相对最强基线提升 25.7%,相比极简基线提升 78.0%;在 MemBench 上,相对最强基线提升 18.9%。更关键的是,进化后的配置在跨基准迁移时表现出正向迁移,而非灾难性遗忘,表明自进化过程捕获了通用检索原理,而非基准特定的启发式规则。

行业意义与未来展望

EvolveMem 打破了记忆系统“存储进化、检索固定”的范式,为构建真正自主的 LLM 智能体提供了新思路。其 AutoResearch 机制 有望减少人工调参成本,推动智能体在复杂长程任务中的落地应用。论文代码已开源。

对于 AI 从业者而言,这项研究提示我们:智能体的自适应能力不仅在于“记住更多”,更在于“学会如何检索”。当记忆系统学会自我优化,智能体的持续学习能力将迈上新台阶。

延伸阅读

  1. EMA:面向学习型系统的高效模型自适应方法
  2. 大语言模型的下一个前沿:私有数据训练——跨域联邦微调基准
  3. 超越模式寻找强化学习:TraFL 轨迹平衡后训练方法为扩散语言模型注入新活力
查看原文