斯坦福大学AI小镇论文阅读

论文: Generative Agents: Interactive Simulacra of Human Behavior 配套原文:[[斯坦福小镇论文(全文翻译+导读)]] 配套分析: 斯坦福小镇memory分析 斯坦福大学 AI 小镇论文阅读 TL;DR 这篇论文提出了一种“生成虚拟人”架构,让虚拟人能在类似《模拟人生》的沙盒世界中持续生活、交流、记忆、反思和规划。[1] 其核心机制有三部分:记忆流(Memory Stream)、反思(Reflection)、规划(Plan)。[1] 记忆检索不是简单的向量搜索,而是结合了 相关性、时序新近性和重要性 的混合评分机制。[1] 这篇工作之所以经典,不只是因为它让 NPC 更会聊天,而是它较早完整打通了 记忆存储、检索、抽象、规划与社交传播。[2] 从 Agent Memory 分类看,它是一个典型的 Token-level 记忆架构原型,对后续大量工作都有启发。[3] 一、为什么这篇论文重要 在 Agent Memory 的发展脉络里,Generative Agents 通常被视为一个里程碑。它展示的不只是“单轮拟人回复”,而是一个具备长期一致性的智能体社会:虚拟人会记住经历、形成对他人和自己的理解、安排未来计划,并在环境变化时重新调整行为。[1] 更重要的是,这篇论文给出了一个非常完整的记忆系统原型:底层用记忆流做持久存储,中间用检索机制把相关记忆找回来,再通过反思把原始经历提炼成更高层次认知,最后通过规划把认知转化为行为。对于做 Agent Infra 的人来说,这基本就是一个完整的 memory blueprint。[2] 二、这篇论文到底在解决什么问题 论文关注的核心问题是: 大语言模型虽然已经能在单个时刻生成看起来合理的人类行为,但还不足以支撑一个长期运行、多人互动、动态演化的虚拟社会。[1] 问题主要体现在几个方面: 模型容易丢失长期一致性 很难在多轮经历之后持续“记住自己是谁” 很难把过去发生的事转化成稳定判断 很难在一个开放世界里形成自然的信息传播、关系变化和协作行为[1] 因此,作者提出的不是“更强的对话模型”,而是一套围绕记忆组织起来的虚拟人架构。 三、实验场景:Smallville 小镇 作者构建了一个叫 Smallville 的沙盒小镇,里面有 25 个身份不同的虚拟人。每个虚拟人都有一段自然语言的人设描述,作为初始记忆,包括职业、性格、关系和背景。[1] 这个世界支持几类交互: 虚拟人之间通过自然语言对话 虚拟人与环境中的对象互动 人类用户可以“附体”到某个虚拟人身上,用自然语言干预其行为 用户还能直接修改环境状态,比如把炉子改成“着火”,观察角色如何反应[1] 论文最有代表性的案例是情人节派对:一开始只告诉 Isabella 她想举办派对,之后邀请、传播、协作布置、赴约等行为都在小镇中自发出现。[1] 四、核心架构总览 这篇论文的架构可以概括成三部分: 记忆流(Memory Stream) 反思(Reflection) 规划(Plan)[1] 这三个模块不是并列的小功能,而是一个循环: ...

March 17, 2026 · 2 min · 411 words · Robert

斯坦福大学AI小镇论文(全文翻译+导读)

原文来源: https://zhuanlan.zhihu.com/p/662730929 论文标题: Generative Agents: Interactive Simulacra of Human Behavior 阅读导图: [[斯坦福大学AI小镇论文阅读]] TL;DR 这篇论文提出了一个“生成虚拟人”架构,让虚拟人能在类似《模拟人生》的沙盒世界中持续生活、交流、记忆、反思和规划。[1] 它的核心机制包括三部分:==记忆流(Memory Stream)、思考 / 反思(Reflection)、个人规划(Plan)。==[1] 系统将虚拟人的经历以自然语言写入记忆流,并通过 ==相关性、新近性、重要性== 三因素进行检索。[1] 检索到的记忆不仅用于回答当前问题,还会被进一步综合为更高层次的思考,再影响后续计划与行为。[1] 在 25 个虚拟人组成的小镇中,论文展示了信息传播、关系形成与协作等涌现行为,例如情人节派对的自主组织。[1] 导读:这篇论文为什么值得读 这篇论文是 Agent Memory 方向非常经典的工作。它的重要性不在于“让 NPC 更会聊天”,而在于较早完整地展示了一套 有长期记忆、会反思、能规划 的 Agent 架构。[1] 如果你关心的是 Agent Memory 或 Agent Infra,最值得重点看的部分是: 4.1 记忆与检索 4.2 思考 4.3 计划和反馈[1][2] 如果你更关心交互效果和系统表现,则可以优先看: 3. 生成虚拟人的行为和交互 3.4 新兴的社交行为 8.2 未来工作和局限性 8.3 伦理和社会影响[1] 建议阅读方式 只想快速理解论文核心:先读本文开头的导读,再重点看第 4 节。[2] 想理解为什么它是 Agent Memory 的经典案例:重点看记忆流、检索、思考、计划这四块。[1] 想逐段精读原文翻译:从摘要开始顺序往下读即可。 想看阅读版总结:可配合 [[斯坦福大学AI小镇论文阅读]] 一起看。[3] 摘要前解读 这一部分最值得注意的不是“虚拟人会生活”,而是作者在摘要里就把系统可信行为归结为三个关键因素: ...

March 17, 2026 · 19 min · 3863 words · Robert

Agent Memory 论文综述

概述 Agent Memory(智能体记忆)是构建基础模型智能体的核心支柱,支撑着智能体执行长程推理、持续学习和与复杂环境有效交互的能力。本综述基于复旦大学研究团队的 Agent-Memory-Paper-List 仓库,系统梳理了这一快速发展领域的研究脉络。 与相关概念的区别 Agent Memory 与以下概念存在本质区别: 概念 核心特征 与 Agent Memory 的区别 LLM Memory LLM 自身的参数化知识 Agent Memory 是显式的外部记忆系统 RAG 检索增强生成,基于外部知识库 RAG 是静态检索,Agent Memory 支持动态更新和演化 Context Engineering 优化输入上下文 Agent Memory 关注跨会话的长期记忆保持 统一分类框架 该领域研究通过三个维度进行组织: 1. 形式 (Forms) - 记忆载体 Token-level: 显式、离散的自然语言表示 Parametric: 隐式的模型参数权重 Latent: 隐藏状态表征 2. 功能 (Functions) - 记忆用途 Factual Memory (事实记忆): 存储知识和事实信息 Experiential Memory (经验记忆): 记录洞察、技能和经验 Working Memory (工作记忆): 主动上下文管理 3. 动态 (Dynamics) - 记忆演化 Formation (形成): 信息提取和编码 Evolution (演化): 巩固与遗忘机制 Retrieval (检索): 访问策略 发展脉络 第一阶段:基础探索期 (2021-2023) 核心特征: 从知识编辑和模型编辑技术起步,逐步探索如何让 LLM 具备长期记忆能力。 ...

March 15, 2026 · 2 min · 317 words · Robert

Agent Memory: 事实记忆 (Factual Memory)

概述 事实记忆 (Factual Memory) 负责存储和管理智能体的知识性信息,包括: 世界知识 (事实、概念、关系) 用户特定信息 (偏好、历史、个人资料) 任务相关知识 (领域知识、规则) 与 RAG 的静态知识库不同,Agent 的事实记忆支持动态更新和个性化演化。 Token-level 事实记忆 核心思想: 使用自然语言等离散符号显式存储记忆,便于人类理解和干预。 代表性论文 1. Generative Agents (2023) 论文: Generative Agents: Interactive Simulacra of Human Behavior 链接: arXiv:2304.03442 核心思想: 提出完整的生成式智能体架构 记忆流 (Memory Stream): 记录所有观察和经历的完整日志 反思 (Reflection): 将记忆综合成高层次的推理 规划 (Planning): 将反思转化为行为计划 意义: 开创了基于自然语言记忆的智能体架构,被后续大量工作引用 2. MemGPT (2023) 论文: MemGPT: Towards LLMs as Operating Systems 链接: arXiv:2310.08560 核心思想: 将 LLM 比作操作系统,引入分层存储管理 区分主上下文 (有限) 和外部上下文 (无限) 通过函数调用在两层之间移动数据 意义: 解决了 LLM 上下文长度限制问题,实现了"无限"上下文 3. HippoRAG (2024) 论文: HippoRAG: Neurobiologically Inspired Long-Term Memory for Large Language Models 链接: arXiv:2405.14831 核心思想: 受海马体 (Hippocampus) 记忆理论启发 结合语义词索引和拓扑图索引 模仿人脑的情景记忆和语义记忆双系统 意义: 将认知神经科学理论引入 LLM 记忆设计 4. Mem0 (2025) 论文: Mem0: Building production-ready ai agents with scalable long-term memory 链接: arXiv:2504.19413 核心思想: 生产级可扩展长期记忆系统 自适应个性化,跨应用保持一致性 支持多层级存储 (向量、键值、图数据库) 意义: 第一个面向生产环境的开源记忆框架 5. Memory-R1 (2025) 论文: Memory-R1: Enhancing Large Language Model Agents to Manage and Utilize Memories via Reinforcement Learning 链接: arXiv:2508.19828 核心思想: 使用强化学习训练记忆管理策略 智能体学习何时存储、更新、检索和遗忘 通过奖励信号优化记忆操作 意义: 将 RL 引入记忆管理,实现自适应记忆策略 6. A-MEM (2025) 论文: A-MEM: Agentic Memory for LLM Agents 链接: arXiv:2502.12110 核心思想: 将记忆管理建模为智能体任务 记忆智能体与任务智能体协作 支持复杂的多跳记忆检索 意义: 记忆系统本身也采用智能体架构 7. MAGMA (2026) 论文: MAGMA: A Multi-Graph based Agentic Memory Architecture for AI Agents 链接: arXiv:2601.03236 核心思想: 基于多图结构的记忆架构 语义图、情景图、实体图分离 图神经网络增强记忆检索 意义: 结构化表示提升记忆的组织性和检索效率 8. Memoria (2025) 论文: Memoria: A Scalable Agentic Memory Framework for Personalized Conversational AI 链接: arXiv:2512.12686 核心思想: 面向个性化对话的可扩展记忆框架 多层级记忆抽象 (原始、摘要、知识) 增量式记忆更新机制 意义: 解决了长期对话中的记忆可扩展性问题 Parametric 事实记忆 核心思想: 将知识编码到模型参数中,实现隐式存储。 ...

March 15, 2026 · 3 min · 480 words · Robert

Agent Memory: 工作记忆 (Working Memory)

概述 工作记忆 (Working Memory) 对应认知心理学中的短期记忆概念,负责: 主动上下文管理: 维护当前任务相关的信息 注意力调控: 决定关注哪些信息 信息整合: 结合短期和长期记忆进行推理 认知负荷管理: 处理有限容量的注意力资源 与长期记忆的区别: 工作记忆: 容量有限 (受上下文长度限制),访问快速,临时存储 长期记忆: 容量几乎无限,访问需要检索,持久存储 Token-level 工作记忆 核心思想: 通过文本压缩和选择管理上下文。 代表性论文 1. Agent S (2024) 论文: Agent S: An Open Agentic Framework That Uses Computers Like a Human 链接: arXiv:2410.08164 核心思想: 模拟人类使用计算机的认知过程 分层工作记忆: 视觉记忆 + 动作记忆 + 语义记忆 动态切换注意力焦点 意义: 人类认知架构在智能体设计中的应用 2. AgentFold (2025) 论文: AgentFold: Long-Horizon Web Agents with Proactive Context Management 链接: arXiv:2510.24699 核心思想: 主动上下文管理: 预测未来需要的信息 折叠 (Fold) 和展开 (Unfold) 上下文细节 根据任务进度动态调整上下文粒度 意义: 长程任务中的上下文生命周期管理 3. MemSearcher (2025) 论文: MemSearcher: Training LLMs to Reason, Search and Manage Memory 链接: arXiv:2511.02805 核心思想: 端到端强化学习训练记忆管理 智能体学习何时搜索、保留或丢弃信息 统一推理和记忆管理 意义: 强化学习驱动的主动记忆策略 4. ACON (2025) 论文: ACON: Optimizing Context Compression for Long-Horizon LLM Agents 链接: arXiv:2510.00615 核心思想: 面向长程任务的上下文压缩优化 保持任务关键信息的同时压缩冗余 可学习的压缩策略 意义: 智能体场景的上下文压缩专用方法 5. PRIME (2025) 论文: PRIME: Planning and Retrieval-Integrated Memory for Enhanced Reasoning 链接: arXiv:2509.22315 核心思想: 规划与检索集成的工作记忆 根据计划动态组织记忆 支持复杂多步推理 意义: 工作记忆与规划的深度耦合 6. ReSum (2025) 论文: ReSum: Unlocking Long-Horizon Search Intelligence via Context Summarization 链接: arXiv:2509.13313 核心思想: 通过上下文摘要解锁长程搜索智能 累积式摘要保持历史信息 层次化摘要结构 意义: 摘要技术在工作记忆中的应用 7. Agentic Memory (2026) 论文: Agentic Memory: Learning Unified Long-Term and Short-Term Memory Management 链接: arXiv:2601.01885 核心思想: 统一的长短期记忆管理 端到端学习记忆操作 无缝切换工作记忆和长期记忆 意义: 统一记忆架构的里程碑 8. Memory as Action (2025) 论文: Memory as Action: Autonomous Context Curation for Long-Horizon Agentic Tasks 链接: arXiv:2510.12635 核心思想: 将记忆管理视为动作序列 自主策划上下文内容 学习最优的上下文组织策略 意义: 记忆管理动作化的创新视角 Parametric 工作记忆 核心思想: 通过架构设计或参数调整优化上下文处理能力。 ...

March 15, 2026 · 4 min · 645 words · Robert

Agent Memory: 经验记忆 (Experiential Memory)

概述 经验记忆 (Experiential Memory) 存储智能体从交互中学习到的技能、洞察和策略,而非静态事实。它使智能体能够: 从失败和成功中学习 (强化学习) 积累和复用技能 (程序性记忆) 通过反思改进行为 (元认知) 跨任务迁移经验 (迁移学习) 与事实记忆的区别: 事实记忆: “北京是中国的首都” (静态知识) 经验记忆: “当用户抱怨时,先道歉再解决问题” (习得策略) Token-level 经验记忆 核心思想: 用自然语言显式记录经验、技能和策略。 代表性论文 1. Reflexion (2023) 论文: Reflexion: Language agents with verbal reinforcement learning 链接: arXiv:2303.11366 核心思想: 语言强化学习: 使用自然语言反馈替代数值奖励 智能体通过自我反思总结失败原因 将反思结果存入经验记忆,指导下一次尝试 关键创新: 不需要模型微调,纯提示工程实现 经验以人类可读的形式存储 支持多轮迭代改进 意义: 开创了语言化经验学习的先河 2. ExpeL (2023) 论文: ExpeL: LLM Agents Are Experiential Learners 链接: AAAI 2024 核心思想: 从经验中提取成功和失败的案例 构建经验库支持少样本学习 新任务时检索相似经验作为参考 关键机制: 经验编码: 将执行轨迹转化为可复用的知识 经验检索: 基于任务相似度匹配相关经验 经验应用: 将检索到的经验注入提示 意义: 证明了经验积累对智能体性能的显著提升 3. SkillWeaver (2025) 论文: SkillWeaver: Web Agents can Self-Improve by Discovering and Honing Skills 链接: arXiv:2504.07079 核心思想: 技能发现: 自动从网页交互中识别可复用技能 技能精炼: 通过多次执行优化技能描述 技能库: 维护结构化的技能集合 技能表示: 技能名称: 登录网站 前置条件: 需要用户名和密码 执行步骤: 1. 点击登录按钮 2. 输入凭证 3. 提交 预期结果: 进入用户主页 意义: 实现网页智能体的持续自我改进 4. Agent Workflow Memory (2024) 论文: Agent Workflow Memory 链接: OpenReview 核心思想: 将复杂任务分解为工作流 学习并存储任务工作流模式 新任务时复用或改编已有工作流 工作流记忆: 节点: 子任务或操作 边: 执行顺序和依赖关系 条件: 分支决策规则 意义: 结构化经验表示支持复杂任务规划 5. MemEvolve (2025) 论文: MemEvolve: Meta-Evolution of Agent Memory Systems 链接: arXiv:2512.18746 核心思想: 元进化: 不仅进化记忆内容,还进化记忆机制 记忆系统本身作为优化目标 自动发现最佳记忆结构 意义: 从固定架构走向自适应记忆系统 6. Hindsight is 20/20 (2025) 论文: Hindsight is 20/20: Building Agent Memory that Retains, Recalls, and Reflects 链接: arXiv:2512.12818 核心思想: 三R框架: 保持(Retain)、回忆(Recall)、反思(Reflect) 事后反思 (Hindsight) 优化决策 构建可解释的经验记忆 意义: 系统化的经验记忆管理框架 7. Remember Me, Refine Me (2025) 论文: Remember Me, Refine Me: A Dynamic Procedural Memory Framework 链接: arXiv:2512.10696 核心思想: 动态程序性记忆: 持续改进技能表示 保留技能历史版本 根据执行反馈选择最优版本 意义: 程序性记忆的版本控制和进化 8. MemRL (2026) 论文: MemRL: Self-Evolving Agents via Runtime Reinforcement Learning on Episodic Memory 链接: arXiv:2601.03192 核心思想: 基于情景记忆的运行时强化学习 从记忆中采样经验进行离线学习 实时更新策略而不中断服务 意义: 实现终身学习的经验积累 Parametric 经验记忆 核心思想: 将经验编码到模型参数中,通过持续学习更新。 ...

March 15, 2026 · 3 min · 481 words · Robert

OpenClaw(Clawdbot)架构拆解:把 Agent 系统做得更稳、更可控

原文来源:https://mp.weixin.qq.com/s/tp9H0IR9a4SWBioLMCDehA 架构师(JiaGouX)|我们都是架构师!架构未来,你来不来? 最近半年写/用 Agent 的人,大概率都踩过同一类坑:模型未必是瓶颈,系统一"动手",工程侧立刻露馅。并发乱、状态飘、日志不可读、工具权限没边界、失败不可回放……最后你会发现,提示词再华丽,也兜不住这些问题。 这篇我想把 OpenClaw(Clawdbot)的架构拆开讲清楚。我更关心的是:它怎么把这类系统做得更稳、更可控。 起因是我在 X 上刷到一条关于 Clawdbot 架构的拆解帖。它不是"神话能力",而是用一套很工程的语言,把组件边界、执行链路、可靠性取舍讲得很清楚。 原帖作者 @Hesamation 的出发点很实在:他想搞清楚 Clawdbot 的记忆系统到底怎么工作、可靠性如何。最后他发现,真正值得学的不是"它能做什么",而是"它怎么把这些事做得更稳"。 太长不看版(6 条) OpenClaw 的本体是 TypeScript CLI 进程,外加一个负责多渠道接入的 Gateway Server;它不是 Web App。 它把可靠性放在第一位:默认串行,显式并行(lane queue)。并发不是"性能技巧",先是"可靠性问题"。 Agent Runner 更像一条装配线:模型选择与 Key 冷却、Prompt 组装、历史加载、上下文窗口守护,然后驱动工具循环。 记忆不神秘:JSONL 转录(可回放)+ Markdown 记忆文件(可编辑);检索用 向量 + 关键词 混合,落在 SQLite(FTS5)。 工具调用的安全边界必须系统化:allowlist + 结构化拦截(重定向/命令替换/子 Shell/链式执行等直接拒绝),别把"自觉"当机制。 浏览器不主要靠截图:用 语义快照(Accessibility Tree/ARIA) 把"看网页"降维成"读结构",成本更低、成功率更稳。 图 1:原始架构图(原图) 图 2:OpenClaw 核心链路 先把它放回正确的分类:它到底是什么 很多人聊 Agent,一开口就是"自治"“多智能体"“进化”。但落地时,你更需要先回答一句话:你做的是聊天机器人,还是"能在你的机器上执行工具的系统”? OpenClaw 的定位很明确:它是一个 运行在你机器上的进程,负责三件事: 接收来自不同渠道的消息(Telegram、Discord、Slack 等)。 调用 LLM API(OpenAI、Anthropic、本地模型等)。 在本地或受控环境里执行工具(Shell、文件、浏览器、进程),再把结果回写给你。 这句话看起来朴素,但它把架构重心直接钉死了:执行的可控性、状态的可追溯性、失败的可解释性。 ...

March 2, 2026 · 3 min · 466 words · Robert

大模型记忆工程的架构设计与实践

原文来源:https://mp.weixin.qq.com/s/jO38bghvaLpjOnQB8aY3uA 作者|李志宇 博士 编辑|Kitty 策划|QCon 全球软件开发大会 随着大模型在企业和行业场景中持续落地,“记忆"正在成为继参数调优和上下文工程之后的下一个工程化核心。短时遗忘、知识碎片化、跨任务信息无法留存等问题,正在限制大模型的个性化、推理链延展与持续演化能力。 本文整理自记忆张量 CTO 李志宇博士在 2025 年 QCon 全球软件开发大会(上海站)的演讲分享。志宇博士结合他多年的研发与落地实践,系统剖析大模型记忆工程的核心技术:记忆分层管理、多粒度调度、可信更新与安全治理,并展示这些技术在金融、工业、知识管理等业务中的应用效果。通过对架构设计、实现细节和案例经验的讲解,帮助开发者与架构师全面理解如何构建具备长期留存与动态调度能力的"有记忆的 AI”,以及它在未来产业智能化演进中的角色与挑战。 预告:将于 4 月 16 - 18 召开的 QCon 北京站设计了「记忆觉醒:智能体记忆系统的范式重塑与产业落地」专题,旨在重新定义企业级记忆系统的未来——聚焦非显式偏好捕捉、记忆自主演化与生命周期管理等前沿方向,探索其在高端客服、个性化助理、企业决策等场景的深层价值。如果你也有相关方向案例想要分享,欢迎提交至 https://jinshuju.com/f/Cu32l5 。 以下是演讲实录(经 InfoQ 进行不改变原意的编辑整理)。 大模型性能缩放曲线的演进历史 我们公司名为"记忆张量",单从名字便可看出,我们聚焦的是"记忆增强"——或者说"记忆优化"这一方向。去年十一月刚刚成立,不久前刚完成近亿元人民币的天使轮融资。 之所以选择"记忆"作为主攻点,根本原因在于我们判断:在大模型的演进史中,记忆将成为与 MCP 工具并列的下一个关键增强维度。2023 年以前,业界普遍通过扩大数据规模、参数量和训练量来换取性能提升,由此催生了千问、ChatGPT 等代表性范式。进入 2024–2025 年,人们逐渐发现,单纯堆参数与规模带来的收益开始递减,于是转向"后训练"与"推理增强",DeepSeek-R1 便是这一阶段的典型产物。当后训练也逼近瓶颈时,Sam Altman 等人开始追问:下一步的突破口究竟在哪里?在 GPT-4 的更新日志里,OpenAI 把"全局记忆"列为令团队"兴奋到失眠"的新功能;而在 GPT-5、GPT-6 的路线图中,“记忆"与"个性化"被反复提及,被视为大模型面向应用场景的核心变量。 从实践层面看记忆增强的必要性 若把大模型业务服务做一次抽象,可自下而上划分为:底层的数据库存储与基础 AI 引擎;中间的 MCP 增强、知识库增强;最上层的业务逻辑。再将视角切换到单个用户与大模型的交互流程,就会发现其中同时存在动态与静态两类信息。所谓动态信息,指随每次查询而变化的个性化内容:用户临时贴入的参考材料、在 prompt 里约定的偏好等。查询一旦发出,模型先进行意图理解与任务规划,再进入信息增强链路——MCP 调用各类动态工具,并返回执行结果、校验信息、汇总结果;与此同时,知识库从预先处理好的企业静态知识中抽取内容,为模型提供补充。最终,响应结果既包含推理过程(think 部分),也包含知识性内容,以及用户对本次回答的点赞或点踩。 若沿着时间轴把记忆类型进一步展开,其复杂度远超直觉。假设我们在第 6 轮对话里需要引用一个月前第 2 轮的内容,又在第 5 轮里引用第 1 轮的细节,就必须保证用户在不同场景下都能准确召回、并同步更新已发生变化的记忆。再把视角拉远:大模型可能在多轮会话、多用户、多 Agent、多 App 之间穿梭,动态信息的量级与管理难度呈指数级上升。因此,我们希望在开发层面屏蔽这些复杂性,让应用开发者无需深陷动态信息的泥沼,从而显著降低落地成本。 ...

March 2, 2026 · 2 min · 339 words · Robert

2026年AI竞争,正催生'数据工业'

核心观点:2026年,AI行业的竞争焦点,除了算力和电力,可能还要全面转向高价值的数据供应链了。 一、Meta收购Scale AI 2025年6月12日,Meta宣布以143亿美元收购人工智能数据标注公司 Scale AI 49%的股权。 Scale AI的核心业务: 数据清洗、标注和整理(激光雷达点云、摄像头视频等) 雇用人类专家撰写训练数据 用AI生成训练数据 向出版商采购数据进行结构化处理 扎克伯格认为,AI竞争已从"拼模型"转向"拼数据喂养能力"。 二、OpenAI 收购Torch 2026年1月13日,OpenAI以约1亿美元收购医疗数据整合公司 Torch。 Torch只有4名员工,人均"转会费"高达2500万美元。 收购目的:获得医疗数据整合能力,支撑"ChatGPT Health"功能(接入220万家美国医疗机构数据)。 同期,Anthropic发布Claude for Healthcare,Google更新MedGemma 1.5,医疗AI竞争转向数据整合的广度与深度。 三、腾讯转拼"环境数据" 2026年1月,腾讯新任首席AI科学家姚顺雨提出: ToB领域:“性能溢价”,模型参数提升有意义 ToC领域:进入"感知平稳期",关键是"更懂我" 要做到"更懂用户",关键在于对"环境上下文“的理解(实时位置、天气、社交关系、历史对话等)。 腾讯将借助微信10亿用户的"环境数据"突围。 四、李开复的预判 零一万物创始人李开复预判:国内超大基座模型竞争将日趋寡头化,最终仅剩DeepSeek、阿里、字节三家主导。 背后原因:这三家(加上腾讯)都拥有海量场景、海量数据。 五、总结:数据工业的崛起 数据从2026年起会从资源升级成产品,像芯片一样需要被设计、精密加工、自动化质检。 Scale AI、Torch这类公司将成为"数据工业"里的台积电 数据公司拼的是认知工艺,而非人海战术 数据供应链正在矿业化+制造业化 来源声明 原文: 《蔡钰·商业参考4》 作者: 蔡钰 ⚠️ 免责声明:本文为第三方商业分析文章的整理版本,仅供个人学习参考。如有侵权,请联系删除。

February 24, 2026 · 1 min · 47 words · Robert

MemGPT 论文中文翻译:将 LLM 作为操作系统

原文标题: MemGPT: Towards LLMs as Operating Systems 作者: Charles Packer, Sarah Wooders, Kevin Lin, Vivian Fang, Shishir G. Patil, Ion Stoica, Joseph E. Gonzalez 机构: 加州大学伯克利分校 arXiv: 2310.08560v2 [cs.AI] 2024年2月12日 翻译整理: 2025年2月 摘要 大语言模型(LLM)已经彻底改变了人工智能领域,但受到有限的上下文窗口限制,这阻碍了它们在扩展对话和文档分析等任务中的实用性。为了能够在有限的上下文窗口之外使用上下文,我们提出了虚拟上下文管理技术,这一技术借鉴了传统操作系统中的分层内存系统,通过物理内存和磁盘之间的分页来提供扩展虚拟内存的幻觉。 利用这一技术,我们引入了 MemGPT(MemoryGPT),这是一个能够智能管理不同存储层级的系统,以在 LLM 有限的上下文窗口内有效提供扩展上下文。我们在两个领域评估了受操作系统启发的设计,在这些领域中,现代 LLM 的有限上下文窗口严重限制了它们的性能: 文档分析:MemGPT 能够分析远超底层 LLM 上下文窗口的大型文档 多会话聊天:MemGPT 可以创建能够记住、反思并通过与用户的长期互动动态进化的对话智能体 我们在 https://research.memgpt.ai 发布了 MemGPT 代码和实验数据。 图 1. MemGPT(左)在收到关于有限上下文空间的系统警报后将数据写入持久内存。 图 2. MemGPT(左)可以搜索上下文外数据,将相关信息带入当前上下文窗口。 1. 引言 近年来,大语言模型(LLM)及其底层的 Transformer 架构(Vaswani et al., 2017; Devlin et al., 2018; Brown et al., 2020; Ouyang et al., 2022)已成为对话式人工智能的基石,并催生了广泛的消费者和企业应用。尽管取得了这些进展,LLM 使用的有限固定长度上下文窗口显著阻碍了它们对长对话或长文档推理的适用性。例如,最广泛使用的开源 LLM 只能支持几十轮来回消息或推理短文档,然后就会超过其最大输入长度(Touvron et al., 2023)。 ...

February 22, 2026 · 3 min · 634 words · Robert