概述
事实记忆 (Factual Memory) 负责存储和管理智能体的知识性信息,包括:
- 世界知识 (事实、概念、关系)
- 用户特定信息 (偏好、历史、个人资料)
- 任务相关知识 (领域知识、规则)
与 RAG 的静态知识库不同,Agent 的事实记忆支持动态更新和个性化演化。
Token-level 事实记忆
核心思想: 使用自然语言等离散符号显式存储记忆,便于人类理解和干预。
代表性论文
1. Generative Agents (2023)
- 论文: Generative Agents: Interactive Simulacra of Human Behavior
- 链接: arXiv:2304.03442
- 核心思想:
- 提出完整的生成式智能体架构
- 记忆流 (Memory Stream): 记录所有观察和经历的完整日志
- 反思 (Reflection): 将记忆综合成高层次的推理
- 规划 (Planning): 将反思转化为行为计划
- 意义: 开创了基于自然语言记忆的智能体架构,被后续大量工作引用
2. MemGPT (2023)
- 论文: MemGPT: Towards LLMs as Operating Systems
- 链接: arXiv:2310.08560
- 核心思想:
- 将 LLM 比作操作系统,引入分层存储管理
- 区分主上下文 (有限) 和外部上下文 (无限)
- 通过函数调用在两层之间移动数据
- 意义: 解决了 LLM 上下文长度限制问题,实现了"无限"上下文
3. HippoRAG (2024)
- 论文: HippoRAG: Neurobiologically Inspired Long-Term Memory for Large Language Models
- 链接: arXiv:2405.14831
- 核心思想:
- 受海马体 (Hippocampus) 记忆理论启发
- 结合语义词索引和拓扑图索引
- 模仿人脑的情景记忆和语义记忆双系统
- 意义: 将认知神经科学理论引入 LLM 记忆设计
4. Mem0 (2025)
- 论文: Mem0: Building production-ready ai agents with scalable long-term memory
- 链接: arXiv:2504.19413
- 核心思想:
- 生产级可扩展长期记忆系统
- 自适应个性化,跨应用保持一致性
- 支持多层级存储 (向量、键值、图数据库)
- 意义: 第一个面向生产环境的开源记忆框架
5. Memory-R1 (2025)
- 论文: Memory-R1: Enhancing Large Language Model Agents to Manage and Utilize Memories via Reinforcement Learning
- 链接: arXiv:2508.19828
- 核心思想:
- 使用强化学习训练记忆管理策略
- 智能体学习何时存储、更新、检索和遗忘
- 通过奖励信号优化记忆操作
- 意义: 将 RL 引入记忆管理,实现自适应记忆策略
6. A-MEM (2025)
- 论文: A-MEM: Agentic Memory for LLM Agents
- 链接: arXiv:2502.12110
- 核心思想:
- 将记忆管理建模为智能体任务
- 记忆智能体与任务智能体协作
- 支持复杂的多跳记忆检索
- 意义: 记忆系统本身也采用智能体架构
7. MAGMA (2026)
- 论文: MAGMA: A Multi-Graph based Agentic Memory Architecture for AI Agents
- 链接: arXiv:2601.03236
- 核心思想:
- 基于多图结构的记忆架构
- 语义图、情景图、实体图分离
- 图神经网络增强记忆检索
- 意义: 结构化表示提升记忆的组织性和检索效率
8. Memoria (2025)
- 论文: Memoria: A Scalable Agentic Memory Framework for Personalized Conversational AI
- 链接: arXiv:2512.12686
- 核心思想:
- 面向个性化对话的可扩展记忆框架
- 多层级记忆抽象 (原始、摘要、知识)
- 增量式记忆更新机制
- 意义: 解决了长期对话中的记忆可扩展性问题
Parametric 事实记忆
核心思想: 将知识编码到模型参数中,实现隐式存储。
代表性论文
1. Knowledge Editing 系列
- 论文: Editing Factual Knowledge in Language Models (2021)
- 链接: arXiv:2104.08164
- 核心思想:
- 直接修改模型参数中的特定知识
- 使用定位-编辑两阶段方法
- 在保持其他知识不变的前提下更新目标知识
- 后续发展:
- Fast Model Editing at Scale (2021): 大规模高效编辑
- K-Adapter (2021): 通过适配器注入知识
- WISE (2024): 终身模型编辑的知识记忆
2. AlphaEdit (2024)
- 论文: AlphaEdit: Null-Space Constrained Knowledge Editing for Language Models
- 链接: arXiv:2410.02355
- 核心思想:
- 零空间约束的知识编辑
- 避免编辑对无关知识的影响
- 保持模型的泛化能力
- 意义: 解决了知识编辑中的"灾难性遗忘"问题
3. ELDER (2024)
- 论文: ELDER: Enhancing Lifelong Model Editing with Mixture-of-LoRA
- 链接: AAAI 2024
- 核心思想:
- 混合 LoRA 专家进行终身模型编辑
- 不同知识使用不同专家处理
- 动态路由选择适当专家
- 意义: 扩展到终身学习场景,支持持续知识更新
4. Character-LLM (2023)
- 论文: Character-LLM: A Trainable Agent for Role-Playing
- 链接: EMNLP 2023
- 核心思想:
- 通过微调将角色知识编码到模型参数
- 使用经验回放维持角色一致性
- 支持个性化对话风格
- 意义: 参数化记忆实现深度个性化
5. MemLoRA (2025)
- 论文: MemLoRA: Distilling Expert Adapters for On-Device Memory Systems
- 链接: arXiv:2512.04763
- 核心思想:
- 蒸馏专家适配器到设备端
- 轻量级参数化记忆
- 支持隐私保护的本地记忆
- 意义: 使参数化记忆适用于边缘设备
Latent 事实记忆
核心思想: 使用隐藏状态或向量表示存储记忆,平衡表达能力与效率。
代表性论文
1. Memory³ (2024)
- 论文: Memory³: Language Modeling with Explicit Memory
- 链接: arXiv:2407.01178
- 核心思想:
- 显式外部记忆 + 隐式参数记忆的融合
- 稀疏注意力机制访问外部记忆
- 端到端训练记忆读写操作
- 意义: 统一了参数化和非参数化记忆的优势
2. M+ (2025)
- 论文: M+: Extending MemoryLLM with Scalable Long-Term Memory
- 链接: arXiv:2502.00592
- 核心思想:
- 扩展 MemoryLLM 的可扩展长期记忆
- 分层的记忆组织策略
- 压缩与检索的联合优化
- 意义: 提升了大规模记忆系统的效率
3. R3Mem (2025)
- 论文: R3Mem: Bridging Memory Retention and Retrieval via Reversible Compression
- 链接: arXiv:2502.15957
- 核心思想:
- 可逆压缩连接记忆保持与检索
- 压缩表示仍支持原始信息恢复
- 节省存储同时保证完整性
- 意义: 解决了记忆压缩与保真度的权衡
4. Similarity-Distance-Magnitude Activations (2025)
- 论文: Similarity-Distance-Magnitude Activations
- 链接: arXiv:2509.12760
- 核心思想:
- 相似度-距离-幅度三重激活机制
- 更精细的记忆匹配策略
- 处理模糊和噪声查询
- 意义: 提升了潜在记忆检索的准确性
技术演进脉络
2021-2022: 知识编辑基础
↓
2023: 记忆架构萌芽 (MemGPT, Generative Agents)
↓
2024: 认知科学启发 (HippoRAG), 生产级系统 (Mem0)
↓
2025: 强化学习驱动 (Memory-R1), 多智能体记忆 (G-Memory)
↓
2026: 统一架构 (MAGMA, Agentic Memory)
关键对比
| 方法 | 存储形式 | 更新方式 | 检索效率 | 可解释性 |
|---|---|---|---|---|
| Token-level | 自然语言 | 增删改 | 中 | 高 |
| Parametric | 模型权重 | 微调/编辑 | 高 | 低 |
| Latent | 向量表示 | 向量操作 | 高 | 中 |
推荐阅读顺序
- 入门: Generative Agents → MemGPT → HippoRAG
- 进阶: Mem0 → Memory-R1 → A-MEM
- 前沿: MAGMA → Memoria → Mem-α