新上线今天0 投票
EvolveMem:让LLM智能体记忆系统自主进化,检索机制不再一成不变
核心突破:记忆架构的“双层次”自进化
大语言模型(LLM)智能体在跨会话任务中依赖长期记忆,但现有系统仅让存储内容动态更新,而检索机制(如评分函数、融合策略、答案生成规则)在部署后便固定不变。这一缺陷限制了智能体的持续适应能力。
最新论文《EvolveMem: Self-Evolving Memory Architecture via AutoResearch for LLM Agents》提出了一种自进化记忆架构,首次实现记忆存储与检索机制的协同进化。其核心是将完整的检索配置暴露为结构化动作空间,由一个 LLM驱动的诊断模块 进行优化。
工作原理:闭环自研(AutoResearch)
EvolveMem 的工作流程类似一个自动化研究循环:
- 诊断:模块读取每个问题的失败日志,识别根因;
- 调整:提出针对性的配置调整方案;
- 验证:通过“回退退化”和“停滞探索”双重保护机制,确保进化稳定。
这种设计使系统从极简基线出发,自动收敛到高效检索策略,甚至能发现原始动作空间中不存在的全新配置维度。
性能表现:显著超越现有基线
在 LoCoMo 基准上,EvolveMem 相对最强基线提升 25.7%,相比极简基线提升 78.0%;在 MemBench 上,相对最强基线提升 18.9%。更关键的是,进化后的配置在跨基准迁移时表现出正向迁移,而非灾难性遗忘,表明自进化过程捕获了通用检索原理,而非基准特定的启发式规则。
行业意义与未来展望
EvolveMem 打破了记忆系统“存储进化、检索固定”的范式,为构建真正自主的 LLM 智能体提供了新思路。其 AutoResearch 机制 有望减少人工调参成本,推动智能体在复杂长程任务中的落地应用。论文代码已开源。
对于 AI 从业者而言,这项研究提示我们:智能体的自适应能力不仅在于“记住更多”,更在于“学会如何检索”。当记忆系统学会自我优化,智能体的持续学习能力将迈上新台阶。