概述

事实记忆 (Factual Memory) 负责存储和管理智能体的知识性信息,包括:

  • 世界知识 (事实、概念、关系)
  • 用户特定信息 (偏好、历史、个人资料)
  • 任务相关知识 (领域知识、规则)

与 RAG 的静态知识库不同,Agent 的事实记忆支持动态更新个性化演化


Token-level 事实记忆

核心思想: 使用自然语言等离散符号显式存储记忆,便于人类理解和干预。

代表性论文

1. Generative Agents (2023)

  • 论文: Generative Agents: Interactive Simulacra of Human Behavior
  • 链接: arXiv:2304.03442
  • 核心思想:
    • 提出完整的生成式智能体架构
    • 记忆流 (Memory Stream): 记录所有观察和经历的完整日志
    • 反思 (Reflection): 将记忆综合成高层次的推理
    • 规划 (Planning): 将反思转化为行为计划
  • 意义: 开创了基于自然语言记忆的智能体架构,被后续大量工作引用

2. MemGPT (2023)

  • 论文: MemGPT: Towards LLMs as Operating Systems
  • 链接: arXiv:2310.08560
  • 核心思想:
    • 将 LLM 比作操作系统,引入分层存储管理
    • 区分主上下文 (有限) 和外部上下文 (无限)
    • 通过函数调用在两层之间移动数据
  • 意义: 解决了 LLM 上下文长度限制问题,实现了"无限"上下文

3. HippoRAG (2024)

  • 论文: HippoRAG: Neurobiologically Inspired Long-Term Memory for Large Language Models
  • 链接: arXiv:2405.14831
  • 核心思想:
    • 海马体 (Hippocampus) 记忆理论启发
    • 结合语义词索引和拓扑图索引
    • 模仿人脑的情景记忆和语义记忆双系统
  • 意义: 将认知神经科学理论引入 LLM 记忆设计

4. Mem0 (2025)

  • 论文: Mem0: Building production-ready ai agents with scalable long-term memory
  • 链接: arXiv:2504.19413
  • 核心思想:
    • 生产级可扩展长期记忆系统
    • 自适应个性化,跨应用保持一致性
    • 支持多层级存储 (向量、键值、图数据库)
  • 意义: 第一个面向生产环境的开源记忆框架

5. Memory-R1 (2025)

  • 论文: Memory-R1: Enhancing Large Language Model Agents to Manage and Utilize Memories via Reinforcement Learning
  • 链接: arXiv:2508.19828
  • 核心思想:
    • 使用强化学习训练记忆管理策略
    • 智能体学习何时存储、更新、检索和遗忘
    • 通过奖励信号优化记忆操作
  • 意义: 将 RL 引入记忆管理,实现自适应记忆策略

6. A-MEM (2025)

  • 论文: A-MEM: Agentic Memory for LLM Agents
  • 链接: arXiv:2502.12110
  • 核心思想:
    • 将记忆管理建模为智能体任务
    • 记忆智能体与任务智能体协作
    • 支持复杂的多跳记忆检索
  • 意义: 记忆系统本身也采用智能体架构

7. MAGMA (2026)

  • 论文: MAGMA: A Multi-Graph based Agentic Memory Architecture for AI Agents
  • 链接: arXiv:2601.03236
  • 核心思想:
    • 基于多图结构的记忆架构
    • 语义图、情景图、实体图分离
    • 图神经网络增强记忆检索
  • 意义: 结构化表示提升记忆的组织性和检索效率

8. Memoria (2025)

  • 论文: Memoria: A Scalable Agentic Memory Framework for Personalized Conversational AI
  • 链接: arXiv:2512.12686
  • 核心思想:
    • 面向个性化对话的可扩展记忆框架
    • 多层级记忆抽象 (原始、摘要、知识)
    • 增量式记忆更新机制
  • 意义: 解决了长期对话中的记忆可扩展性问题

Parametric 事实记忆

核心思想: 将知识编码到模型参数中,实现隐式存储。

代表性论文

1. Knowledge Editing 系列

  • 论文: Editing Factual Knowledge in Language Models (2021)
  • 链接: arXiv:2104.08164
  • 核心思想:
    • 直接修改模型参数中的特定知识
    • 使用定位-编辑两阶段方法
    • 在保持其他知识不变的前提下更新目标知识
  • 后续发展:
    • Fast Model Editing at Scale (2021): 大规模高效编辑
    • K-Adapter (2021): 通过适配器注入知识
    • WISE (2024): 终身模型编辑的知识记忆

2. AlphaEdit (2024)

  • 论文: AlphaEdit: Null-Space Constrained Knowledge Editing for Language Models
  • 链接: arXiv:2410.02355
  • 核心思想:
    • 零空间约束的知识编辑
    • 避免编辑对无关知识的影响
    • 保持模型的泛化能力
  • 意义: 解决了知识编辑中的"灾难性遗忘"问题

3. ELDER (2024)

  • 论文: ELDER: Enhancing Lifelong Model Editing with Mixture-of-LoRA
  • 链接: AAAI 2024
  • 核心思想:
    • 混合 LoRA 专家进行终身模型编辑
    • 不同知识使用不同专家处理
    • 动态路由选择适当专家
  • 意义: 扩展到终身学习场景,支持持续知识更新

4. Character-LLM (2023)

  • 论文: Character-LLM: A Trainable Agent for Role-Playing
  • 链接: EMNLP 2023
  • 核心思想:
    • 通过微调将角色知识编码到模型参数
    • 使用经验回放维持角色一致性
    • 支持个性化对话风格
  • 意义: 参数化记忆实现深度个性化

5. MemLoRA (2025)

  • 论文: MemLoRA: Distilling Expert Adapters for On-Device Memory Systems
  • 链接: arXiv:2512.04763
  • 核心思想:
    • 蒸馏专家适配器到设备端
    • 轻量级参数化记忆
    • 支持隐私保护的本地记忆
  • 意义: 使参数化记忆适用于边缘设备

Latent 事实记忆

核心思想: 使用隐藏状态或向量表示存储记忆,平衡表达能力与效率。

代表性论文

1. Memory³ (2024)

  • 论文: Memory³: Language Modeling with Explicit Memory
  • 链接: arXiv:2407.01178
  • 核心思想:
    • 显式外部记忆 + 隐式参数记忆的融合
    • 稀疏注意力机制访问外部记忆
    • 端到端训练记忆读写操作
  • 意义: 统一了参数化和非参数化记忆的优势

2. M+ (2025)

  • 论文: M+: Extending MemoryLLM with Scalable Long-Term Memory
  • 链接: arXiv:2502.00592
  • 核心思想:
    • 扩展 MemoryLLM 的可扩展长期记忆
    • 分层的记忆组织策略
    • 压缩与检索的联合优化
  • 意义: 提升了大规模记忆系统的效率

3. R3Mem (2025)

  • 论文: R3Mem: Bridging Memory Retention and Retrieval via Reversible Compression
  • 链接: arXiv:2502.15957
  • 核心思想:
    • 可逆压缩连接记忆保持与检索
    • 压缩表示仍支持原始信息恢复
    • 节省存储同时保证完整性
  • 意义: 解决了记忆压缩与保真度的权衡

4. Similarity-Distance-Magnitude Activations (2025)

  • 论文: Similarity-Distance-Magnitude Activations
  • 链接: arXiv:2509.12760
  • 核心思想:
    • 相似度-距离-幅度三重激活机制
    • 更精细的记忆匹配策略
    • 处理模糊和噪声查询
  • 意义: 提升了潜在记忆检索的准确性

技术演进脉络

2021-2022: 知识编辑基础
2023: 记忆架构萌芽 (MemGPT, Generative Agents)
2024: 认知科学启发 (HippoRAG), 生产级系统 (Mem0)
2025: 强化学习驱动 (Memory-R1), 多智能体记忆 (G-Memory)
2026: 统一架构 (MAGMA, Agentic Memory)

关键对比

方法存储形式更新方式检索效率可解释性
Token-level自然语言增删改
Parametric模型权重微调/编辑
Latent向量表示向量操作

推荐阅读顺序

  1. 入门: Generative Agents → MemGPT → HippoRAG
  2. 进阶: Mem0 → Memory-R1 → A-MEM
  3. 前沿: MAGMA → Memoria → Mem-α

返回总览