<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>LLM on Robert | 程序员 · 生活家</title><link>https://robert-xblog.art/tags/llm/</link><description>Recent content in LLM on Robert | 程序员 · 生活家</description><generator>Hugo -- gohugo.io</generator><language>zh-CN</language><managingEditor>Robert</managingEditor><webMaster>Robert</webMaster><lastBuildDate>Tue, 17 Mar 2026 20:30:00 +0800</lastBuildDate><atom:link href="https://robert-xblog.art/tags/llm/index.xml" rel="self" type="application/rss+xml"/><item><title>斯坦福大学AI小镇论文阅读</title><link>https://robert-xblog.art/tech/agent-mem-papers/stanford-generative-agents-notes/</link><pubDate>Tue, 17 Mar 2026 20:30:00 +0800</pubDate><author>Robert</author><guid>https://robert-xblog.art/tech/agent-mem-papers/stanford-generative-agents-notes/</guid><description>Generative Agents 论文导读与重构整理：从记忆流、反思到规划，理解斯坦福AI小镇的 Agent Memory 架构</description></item><item><title>斯坦福大学AI小镇论文（全文翻译+导读）</title><link>https://robert-xblog.art/tech/agent-mem-papers/stanford-generative-agents-full-translation/</link><pubDate>Tue, 17 Mar 2026 18:28:15 +0800</pubDate><author>Robert</author><guid>https://robert-xblog.art/tech/agent-mem-papers/stanford-generative-agents-full-translation/</guid><description>斯坦福大学 Generative Agents 论文全文中文翻译 - AI小镇模拟人类行为的研究（附导读、结构化解读与阅读小结）</description></item><item><title>6. 终章：毕达哥拉斯的幽灵</title><link>https://robert-xblog.art/tech/llm-principle/6-chapter6-epilogue/</link><pubDate>Mon, 16 Mar 2026 12:10:00 +0800</pubDate><author>Robert</author><guid>https://robert-xblog.art/tech/llm-principle/6-chapter6-epilogue/</guid><description>&lt;p>&lt;strong>(The Ghost of Pythagoras)&lt;/strong>&lt;/p>
&lt;blockquote>
&lt;p>&amp;ldquo;万物皆数。&amp;rdquo; —— 毕达哥拉斯，公元前 500 年&lt;/p>
&lt;p>&amp;ldquo;数学在自然科学中不合理的有效性。&amp;rdquo; —— 尤金·维格纳，1960 年&lt;/p>
&lt;p>&amp;ldquo;智能是独立于载体的数学规律。&amp;rdquo; —— 本书核心论点&lt;/p>
&lt;/blockquote>
&lt;hr>
&lt;h2 id="引言回望来路">引言：回望来路&lt;/h2>
&lt;p>这是这本书的终章。&lt;/p>
&lt;p>我们从第一章的&lt;strong>向量空间&lt;/strong>出发，穿越了&lt;strong>注意力机制&lt;/strong>的丛林，攀登了&lt;strong>梯度下降&lt;/strong>的群山，最终抵达了&lt;strong>智能涌现&lt;/strong>的彼岸。&lt;/p>
&lt;p>现在，让我们停下脚步，回望这条路。&lt;/p>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>章节&lt;/th>
&lt;th>&lt;strong>核心主题&lt;/strong>&lt;/th>
&lt;th>&lt;strong>关键洞察&lt;/strong>&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>序言&lt;/td>
&lt;td>打破黑盒的幻象&lt;/td>
&lt;td>模型是数学公式，不是魔法&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>第一章&lt;/td>
&lt;td>意义的几何学&lt;/td>
&lt;td>语义 = 高维空间中的距离&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>第二章&lt;/td>
&lt;td>智能的原子&lt;/td>
&lt;td>Attention = 可微分的字典查询&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>第三章&lt;/td>
&lt;td>多维视角的涌现&lt;/td>
&lt;td>多头 = 特征解耦的子空间&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>第四章&lt;/td>
&lt;td>痛苦的学习&lt;/td>
&lt;td>智能 = 信息压缩的副产品&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>第五章&lt;/td>
&lt;td>时间的箭头&lt;/td>
&lt;td>Decoder-Only = 顺应因果律&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>终章&lt;/td>
&lt;td>毕达哥拉斯的幽灵&lt;/td>
&lt;td>万物皆数&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;p>在这个终点，我们将不再讨论具体的公式或代码。我们将面对那个悬在所有人工智能研究者头顶的终极问题：&lt;strong>这一切，究竟意味着什么？&lt;/strong>&lt;/p>
&lt;hr>
&lt;h2 id="61-数学的不合理有效性">6.1 数学的不合理有效性&lt;/h2>
&lt;h3 id="what维格纳的追问">What：维格纳的追问&lt;/h3>
&lt;p>物理学家尤金·维格纳曾写过一篇名作：《数学在自然科学中不合理的有效性》（1960 年）。&lt;/p>
&lt;p>他惊叹于为什么数学（这个人类大脑的发明）能如此精准地描述物理世界（比如电子的运动）。&lt;/p>
&lt;blockquote>
&lt;p>&amp;ldquo;数学概念在物理学中的适用性是一份我们无法理解也无法应得的礼物。&amp;rdquo;
—— 尤金·维格纳&lt;/p>
&lt;/blockquote>
&lt;p>今天，我们面临着同样的惊叹：&lt;strong>为什么线性代数能如此精准地描述人类语言？&lt;/strong>&lt;/p>
&lt;h3 id="611-语言的物理形态">6.1.1 语言的物理形态&lt;/h3>
&lt;p>&lt;strong>What：我们从各章学到的&lt;/strong>&lt;/p>
&lt;p>回顾全书的核心发现：&lt;/p>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>章节&lt;/th>
&lt;th>&lt;strong>人类概念&lt;/strong>&lt;/th>
&lt;th>&lt;strong>数学对应&lt;/strong>&lt;/th>
&lt;th>&lt;strong>物理意义&lt;/strong>&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>第一章&lt;/td>
&lt;td>意义（Meaning）&lt;/td>
&lt;td>高维空间中的距离&lt;/td>
&lt;td>余弦相似度&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>第二章&lt;/td>
&lt;td>理解（Understanding）&lt;/td>
&lt;td>矩阵的投影与旋转&lt;/td>
&lt;td>Q/K/V 变换&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>第三章&lt;/td>
&lt;td>逻辑（Logic）&lt;/td>
&lt;td>不同子空间特征的正交组合&lt;/td>
&lt;td>多头注意力&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>第四章&lt;/td>
&lt;td>学习（Learning）&lt;/td>
&lt;td>损失函数曲面上的梯度下降&lt;/td>
&lt;td>参数优化&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>第五章&lt;/td>
&lt;td>因果（Causality）&lt;/td>
&lt;td>因果遮蔽的单向注意力&lt;/td>
&lt;td>时间箭头&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;p>&lt;strong>这暗示了一个令人不安但也令人兴奋的事实：&lt;/strong>&lt;/p></description></item><item><title>5. 第五章：时间的箭头 —— Decoder-Only 的统治</title><link>https://robert-xblog.art/tech/llm-principle/5-chapter5-decoder/</link><pubDate>Mon, 16 Mar 2026 12:09:00 +0800</pubDate><author>Robert</author><guid>https://robert-xblog.art/tech/llm-principle/5-chapter5-decoder/</guid><description>&lt;p>&lt;strong>(The Arrow of Time: The Reign of Decoder-Only)&lt;/strong>&lt;/p>
&lt;blockquote>
&lt;p>&amp;ldquo;我们不能两次踏进同一条河流。&amp;rdquo; —— 赫拉克利特&lt;/p>
&lt;p>&amp;ldquo;预测未来比解释过去更难。&amp;rdquo; —— 本书核心论点&lt;/p>
&lt;p>&amp;ldquo;因果律是智能的基石。&amp;rdquo; —— 本章主旨&lt;/p>
&lt;/blockquote>
&lt;hr>
&lt;h2 id="引言架构选择的终极问题">引言：架构选择的终极问题&lt;/h2>
&lt;p>第五章是全书的&lt;strong>架构核心&lt;/strong>，也是对当前 LLM 发展格局的终极解释。&lt;/p>
&lt;p>为什么在 Transformer 的家族中，BERT（双向）和 T5（Encoder-Decoder）逐渐式微，而 GPT（Decoder-Only）一统天下？&lt;/p>
&lt;p>这不仅仅是工程选择，更是对&lt;strong>因果律（Causality）&lt;/strong> 和 &lt;strong>生成式任务（Generative Task）&lt;/strong> 本质的深刻洞察。&lt;/p>
&lt;p>在第一章中，我们看到了语言如何变成向量。&lt;/p>
&lt;p>在第二章中，我们看到了注意力如何建立联系。&lt;/p>
&lt;p>在第三章中，我们看到了多头如何解耦特征。&lt;/p>
&lt;p>在第四章中，我们看到了梯度下降如何&amp;quot;雕刻&amp;quot;参数。&lt;/p>
&lt;p>但还有一个根本问题没有回答：&lt;/p>
&lt;p>&lt;strong>为什么是 Decoder-Only？&lt;/strong>&lt;/p>
&lt;p>为什么不是 Encoder-Only（如 BERT）？&lt;/p>
&lt;p>为什么不是 Encoder-Decoder（如 T5）？&lt;/p>
&lt;p>这是一个价值千亿美元的问题。&lt;/p>
&lt;p>2018 年，BERT 发布时，它是 NLP 的王者。它在所有基准测试上屠榜，被认为是 NLP 的未来。&lt;/p>
&lt;p>2020 年，GPT-3 发布时，它展示了惊人的少样本学习能力。&lt;/p>
&lt;p>2022 年，ChatGPT 发布时，全世界都意识到了：Decoder-Only 架构赢了。&lt;/p>
&lt;p>今天（2026 年），几乎所有主流大模型都是 Decoder-Only：&lt;/p>
&lt;ul>
&lt;li>GPT-4/4.5/5（OpenAI）&lt;/li>
&lt;li>Claude 3.5/3.7（Anthropic）&lt;/li>
&lt;li>LLaMA 2/3/3.1（Meta）&lt;/li>
&lt;li>Qwen2.5/3/3.5（阿里）&lt;/li>
&lt;li>Gemini 1.5/2（Google）&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>这不是巧合。这是数学必然。&lt;/strong>&lt;/p></description></item><item><title>4. 第四章：痛苦的学习 —— 梯度下降与反向传播</title><link>https://robert-xblog.art/tech/llm-principle/4-chapter4-gradient/</link><pubDate>Mon, 16 Mar 2026 12:08:00 +0800</pubDate><author>Robert</author><guid>https://robert-xblog.art/tech/llm-principle/4-chapter4-gradient/</guid><description>&lt;p>&lt;strong>(The Pain of Learning: Gradient Descent &amp;amp; Backpropagation)&lt;/strong>&lt;/p>
&lt;blockquote>
&lt;p>&amp;ldquo;所谓经验，不过是人们给自己的错误取的名字。&amp;rdquo; —— 奥斯卡·王尔德&lt;/p>
&lt;p>&amp;ldquo;智能是压缩的副产品。&amp;rdquo; —— 本书核心论点&lt;/p>
&lt;p>&amp;ldquo;学习不是天赋，是痛苦计算的产物。&amp;rdquo; —— 本章主旨&lt;/p>
&lt;/blockquote>
&lt;hr>
&lt;h2 id="引言从静态架构到动态进化">引言：从静态架构到动态进化&lt;/h2>
&lt;p>如果说前三章是在搭建静态的架构（骨骼与肌肉），那么这一章我们要注入灵魂——&lt;strong>学习（Learning）&lt;/strong>。&lt;/p>
&lt;p>我们将探讨模型是如何从一堆随机初始化的参数，变成一个通晓人类语言的智者的。&lt;/p>
&lt;p>这个过程充满了数学上的暴力美学。&lt;/p>
&lt;p>在第一章中，我们看到了语言如何变成向量。&lt;/p>
&lt;p>在第二章中，我们看到了注意力如何建立联系。&lt;/p>
&lt;p>在第三章中，我们看到了多头如何解耦特征。&lt;/p>
&lt;p>但这些都是&lt;strong>静态的&lt;/strong>。&lt;/p>
&lt;p>一个随机初始化的 Transformer，和一个训练好的 Transformer，架构完全相同。&lt;/p>
&lt;p>参数都是矩阵，计算都是矩阵乘法。&lt;/p>
&lt;p>&lt;strong>区别在哪里？&lt;/strong>&lt;/p>
&lt;p>区别在于：训练好的模型，其参数经过了&lt;strong>数万亿次&lt;/strong>的梯度下降优化。&lt;/p>
&lt;p>每一个参数，都被梯度&amp;quot;雕刻&amp;quot;过无数次。&lt;/p>
&lt;p>每一个权重，都凝固了人类语言的统计规律。&lt;/p>
&lt;p>&lt;strong>这一章，我们将不再把模型看作一个静止的物体，而是一个正在进化的生命体。&lt;/strong>&lt;/p>
&lt;p>它的进化动力，源于一个简单而残酷的目标：&lt;strong>预测下一个词（Next Token Prediction）。&lt;/strong>&lt;/p>
&lt;p>为了实现这个目标，模型必须经历一场漫长的、痛苦的、涉及数万亿次计算的&amp;quot;试错&amp;quot;之旅。&lt;/p>
&lt;p>这是一场没有意识的进化。&lt;/p>
&lt;p>这是一场由数学驱动的进化。&lt;/p>
&lt;p>这是一场由梯度下降导演的进化。&lt;/p>
&lt;p>让我们开始这场旅程。&lt;/p>
&lt;hr>
&lt;h2 id="41-盲人与群山损失函数的地形图">4.1 盲人与群山：损失函数的地形图&lt;/h2>
&lt;h3 id="what损失函数的物理图像">What：损失函数的物理图像&lt;/h3>
&lt;p>想象一下，你是一个盲人，被随机扔到了喜马拉雅山脉的某个位置。&lt;/p>
&lt;p>你的任务是：&lt;strong>找到全世界最低的那个点（马里亚纳海沟）。&lt;/strong>&lt;/p>
&lt;p>这就是模型训练的本质。&lt;/p>
&lt;h3 id="411-参数空间parameter-space">4.1.1 参数空间（Parameter Space）&lt;/h3>
&lt;p>&lt;strong>What：什么是参数空间&lt;/strong>&lt;/p>
&lt;p>在这个比喻中：&lt;/p>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>比喻元素&lt;/th>
&lt;th>&lt;strong>对应概念&lt;/strong>&lt;/th>
&lt;th>&lt;strong>数学表达&lt;/strong>&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>你的位置&lt;/td>
&lt;td>模型当前的参数状态&lt;/td>
&lt;td>$\theta \in \mathbb{R}^{350亿}$&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>你的高度&lt;/td>
&lt;td>模型当前的损失（Loss）&lt;/td>
&lt;td>$L(\theta)$&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>地形&lt;/td>
&lt;td>由训练数据决定的 Loss 曲面&lt;/td>
&lt;td>$L: \mathbb{R}^{350亿} \rightarrow \mathbb{R}$&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>最低点&lt;/td>
&lt;td>最优参数（Loss 最小）&lt;/td>
&lt;td>$\theta^* = \arg\min L(\theta)$&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;p>&lt;strong>关键洞察&lt;/strong>：&lt;/p></description></item><item><title>3. 第三章：多维视角的涌现 —— 多头注意力</title><link>https://robert-xblog.art/tech/llm-principle/3-chapter3-multihead/</link><pubDate>Mon, 16 Mar 2026 12:07:00 +0800</pubDate><author>Robert</author><guid>https://robert-xblog.art/tech/llm-principle/3-chapter3-multihead/</guid><description>&lt;p>&lt;strong>(Emergence of Perspectives: Multi-Head Attention)&lt;/strong>&lt;/p>
&lt;blockquote>
&lt;p>&amp;ldquo;横看成岭侧成峰，远近高低各不同。&amp;rdquo; —— 苏轼《题西林壁》&lt;/p>
&lt;p>&amp;ldquo;整体大于部分之和。&amp;rdquo; —— 亚里士多德&lt;/p>
&lt;p>&amp;ldquo;多样性不是缺陷，是智能的必要条件。&amp;rdquo; —— 本书核心论点&lt;/p>
&lt;/blockquote>
&lt;hr>
&lt;h2 id="引言从单通道到多声部">引言：从单通道到多声部&lt;/h2>
&lt;p>如果说第二章的 Attention 是一个精密的齿轮，那么第三章的 Multi-Head Attention 就是让这些齿轮组成一台复杂的机器，并解释这台机器为何能产生类似人类的&amp;quot;多维度思考&amp;quot;。&lt;/p>
&lt;p>在上一章，我们构建了一个完美的 Attention 机制。它让词与词之间建立了联系。&lt;/p>
&lt;p>但这里有一个隐患：&lt;strong>如果所有的联系都挤在同一个通道里，会发生什么？&lt;/strong>&lt;/p>
&lt;p>想象一下，你正在读一句复杂的长难句：&lt;/p>
&lt;blockquote>
&lt;p>&amp;ldquo;尽管&lt;strong>他&lt;/strong>不喜欢&lt;strong>苹果&lt;/strong>公司的新&lt;strong>手机&lt;/strong>，但&lt;strong>它&lt;/strong>的设计确实很&lt;strong>惊艳&lt;/strong>。&amp;rdquo;&lt;/p>
&lt;/blockquote>
&lt;p>这句话里包含了多重关系：&lt;/p>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>关系类型&lt;/th>
&lt;th>&lt;strong>示例&lt;/strong>&lt;/th>
&lt;th>&lt;strong>需要捕捉的联系&lt;/strong>&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>语法关系&lt;/td>
&lt;td>&amp;ldquo;他&amp;quot;是主语，&amp;ldquo;喜欢&amp;quot;是谓语&lt;/td>
&lt;td>主谓结构&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>指代关系&lt;/td>
&lt;td>&amp;ldquo;它&amp;quot;指代&amp;quot;手机&amp;rdquo;，不是&amp;quot;苹果公司&amp;rdquo;&lt;/td>
&lt;td>代词→实体&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>情感关系&lt;/td>
&lt;td>&amp;ldquo;不喜欢&amp;quot;是负面，&amp;ldquo;惊艳&amp;quot;是正面&lt;/td>
&lt;td>情感极性&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>实体关系&lt;/td>
&lt;td>&amp;ldquo;苹果&amp;quot;修饰&amp;quot;公司&amp;rdquo;，&amp;ldquo;新&amp;quot;修饰&amp;quot;手机&amp;rdquo;&lt;/td>
&lt;td>修饰关系&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>逻辑关系&lt;/td>
&lt;td>&amp;ldquo;尽管&amp;hellip;但&amp;hellip;&amp;ldquo;表示转折&lt;/td>
&lt;td>逻辑连接&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;p>如果你只有一个 Attention Head（注意力头），它必须同时处理所有这些关系。&lt;/p>
&lt;p>它的注意力分数（Attention Score）会变得一团糟：&lt;/p>
&lt;ul>
&lt;li>&amp;ldquo;它&amp;quot;既要关注&amp;quot;手机&amp;rdquo;（为了指代），又要关注&amp;quot;惊艳&amp;rdquo;（为了情感），还要关注&amp;quot;设计&amp;rdquo;（为了语法）。&lt;/li>
&lt;li>结果就是：&lt;strong>特征纠缠（Feature Entanglement）&lt;/strong>。所有的信息混在一起，变成了噪音。&lt;/li>
&lt;/ul>
&lt;p>这就像一个人在同一时间：&lt;/p>
&lt;ul>
&lt;li>听交响乐（需要捕捉旋律）&lt;/li>
&lt;li>看画作（需要捕捉色彩）&lt;/li>
&lt;li>品美酒（需要捕捉味道）&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>单一通道无法同时处理多维信息。&lt;/strong>&lt;/p>
&lt;p>为了解决这个问题，Transformer 引入了 &lt;strong>Multi-Head Attention（多头注意力）&lt;/strong>。&lt;/p>
&lt;p>这不是工程优化，这是&lt;strong>认知架构的必要设计&lt;/strong>。&lt;/p>
&lt;hr>
&lt;h2 id="31-盲人摸象的智慧多头的物理意义">3.1 盲人摸象的智慧：多头的物理意义&lt;/h2>
&lt;h3 id="what什么是-multi-head-attention">What：什么是 Multi-Head Attention&lt;/h3>
&lt;p>很多人误以为 Multi-Head 只是为了像 CPU 多核一样做并行计算加速。&lt;/p></description></item><item><title>2. 第二章：智能的原子 —— 注意力机制的解构</title><link>https://robert-xblog.art/tech/llm-principle/2-chapter2-attention/</link><pubDate>Mon, 16 Mar 2026 12:06:00 +0800</pubDate><author>Robert</author><guid>https://robert-xblog.art/tech/llm-principle/2-chapter2-attention/</guid><description>&lt;p>&lt;strong>(The Atom of Intelligence: Deconstructing Attention)&lt;/strong>&lt;/p>
&lt;blockquote>
&lt;p>&amp;ldquo;你看见的，只是你想看见的。&amp;rdquo; —— 心理学中的选择性注意&lt;/p>
&lt;p>&amp;ldquo;注意力是意识的门户。&amp;rdquo; —— 威廉·詹姆斯&lt;/p>
&lt;p>&amp;ldquo;信息的相关性，比信息本身更重要。&amp;rdquo; —— 克劳德·香农&lt;/p>
&lt;/blockquote>
&lt;hr>
&lt;h2 id="引言从静态坐标到动态能量场">引言：从静态坐标到动态能量场&lt;/h2>
&lt;p>如果说第一章的 Embedding 是给每个词发了一张静态的身份证，那么第二章的 Attention 就是让这些词在一个巨大的会议室里&lt;strong>开始交谈&lt;/strong>。&lt;/p>
&lt;p>在 Transformer 出现之前，RNN（循环神经网络）像传话筒一样，一个词一个词地传递信息。&lt;/p>
&lt;p>&amp;ldquo;我&amp;quot;传给&amp;quot;爱&amp;rdquo;，&amp;ldquo;爱&amp;quot;传给&amp;quot;你&amp;rdquo;。等到传到句子的末尾，开头的&amp;quot;我&amp;quot;早已模糊不清。&lt;/p>
&lt;p>这不仅是效率问题，这是&lt;strong>本体论的局限&lt;/strong>。&lt;/p>
&lt;p>RNN 的设计假设是：语言是时间的函数，意义在序列中累积。&lt;/p>
&lt;p>但人类的认知不是这样的。&lt;/p>
&lt;p>当你读到这句话时，你的眼睛不是逐字扫描，而是&lt;strong>跳跃式&lt;/strong>地捕捉关键信息。你的大脑不是线性处理，而是&lt;strong>并行&lt;/strong>地激活相关概念。&lt;/p>
&lt;p>&lt;strong>Attention 彻底改变了这一切。&lt;/strong>&lt;/p>
&lt;p>它让句子中的每一个词，都能&lt;strong>同时&lt;/strong>看到其他所有词，并根据它们之间的关系，&lt;strong>动态地&lt;/strong>吸收信息。&lt;/p>
&lt;p>这不是工程优化，这是&lt;strong>认知范式的转换&lt;/strong>。&lt;/p>
&lt;p>这一章，我们将深入 Transformer 的心脏，解构那个著名的公式：&lt;/p>
&lt;p>$$ \text{Attention}(Q, K, V) = \text{Softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)V $$&lt;/p>
&lt;p>这个公式，是智能的原子。&lt;/p>
&lt;p>它简单到可以用一行代码实现。&lt;/p>
&lt;p>它复杂到足以支撑人类语言的无限表达。&lt;/p>
&lt;p>让我们开始这场解构之旅。&lt;/p>
&lt;hr>
&lt;h2 id="21-信息的路由协议从传话到广播">2.1 信息的路由协议：从&amp;quot;传话&amp;quot;到&amp;quot;广播&amp;quot;&lt;/h2>
&lt;h3 id="what两种信息传递模式">What：两种信息传递模式&lt;/h3>
&lt;p>在计算机网络中，信息的传递有两种模式：&lt;/p>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>模式&lt;/th>
&lt;th>&lt;strong>类比&lt;/strong>&lt;/th>
&lt;th>&lt;strong>代表架构&lt;/strong>&lt;/th>
&lt;th>&lt;strong>特点&lt;/strong>&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>单播 (Unicast)&lt;/td>
&lt;td>打电话，点对点&lt;/td>
&lt;td>RNN/LSTM&lt;/td>
&lt;td>信息沿时间轴流动&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>广播 (Broadcast)&lt;/td>
&lt;td>开会，所有人听&lt;/td>
&lt;td>Transformer/Attention&lt;/td>
&lt;td>信息全局可见&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;h3 id="211-rnn-的序列瓶颈">2.1.1 RNN 的序列瓶颈&lt;/h3>
&lt;p>&lt;strong>Why：为什么 RNN 有根本局限&lt;/strong>&lt;/p></description></item><item><title>1. 第一章：意义的几何学 —— 语言的向量化</title><link>https://robert-xblog.art/tech/llm-principle/1-chapter1-embedding/</link><pubDate>Mon, 16 Mar 2026 12:05:00 +0800</pubDate><author>Robert</author><guid>https://robert-xblog.art/tech/llm-principle/1-chapter1-embedding/</guid><description>&lt;p>&lt;strong>(The Geometry of Meaning: Vectorization of Language)&lt;/strong>&lt;/p>
&lt;blockquote>
&lt;p>&amp;ldquo;语言的界限，即是世界的界限。&amp;rdquo; —— 路德维希·维特根斯坦&lt;/p>
&lt;p>&amp;ldquo;大自然这本书是用数学语言写成的。&amp;rdquo; —— 伽利略·伽利雷&lt;/p>
&lt;p>&amp;ldquo;万物皆数。&amp;rdquo; —— 毕达哥拉斯&lt;/p>
&lt;/blockquote>
&lt;hr>
&lt;h2 id="引言从符号到坐标的惊险跳跃">引言：从符号到坐标的惊险跳跃&lt;/h2>
&lt;p>当我们谈论 ChatGPT 或 Claude &amp;ldquo;读懂&amp;quot;了一本书时，我们到底在谈论什么？&lt;/p>
&lt;p>在硅基的视网膜上，没有字母 &lt;code>A&lt;/code>，没有汉字&lt;code>爱&lt;/code>，也没有单词&lt;code>Apple&lt;/code>。计算机的底层只有电流的通断（0 和 1）。晶体管的开与关，电压的高与低，磁畴的南与北——这就是数字世界的全部物理基础。&lt;/p>
&lt;p>要让计算机处理语言，我们必须完成一次从&lt;strong>符号（Symbol）&lt;/strong> 到&lt;strong>数学空间（Mathematical Space）&lt;/strong> 的惊险跳跃。&lt;/p>
&lt;p>这不是简单的&amp;quot;翻译&amp;rdquo;，这是一次&lt;strong>本体论的转换&lt;/strong>。&lt;/p>
&lt;p>符号是离散的、任意的、文化依赖的。&amp;ldquo;苹果&amp;quot;这个词与实际的苹果之间没有必然联系——中文叫&amp;quot;苹果&amp;rdquo;，英文叫&amp;quot;Apple&amp;quot;，法文叫&amp;quot;Pomme&amp;quot;。符号的意义来自社会约定，不是来自物理本质。&lt;/p>
&lt;p>但数学空间是连续的、确定的、普适的。向量 &lt;code>[0.82, -0.15, 0.33, ..., 0.05]&lt;/code> 在任何文化中都是同一个数学对象。它的意义来自它在高维空间中的位置，来自它与其他向量的几何关系。&lt;/p>
&lt;p>这一章的故事，关于我们如何把字典里的每一个词，变成高维空间里的一颗星星。&lt;/p>
&lt;p>关于语义如何变成几何。&lt;/p>
&lt;p>关于意义如何变成坐标。&lt;/p>
&lt;p>关于我们如何用线性代数，描述人类最引以为傲的语言能力。&lt;/p>
&lt;hr>
&lt;h2 id="11-计算机眼中的苹果从符号到坐标">1.1 计算机眼中的&amp;quot;苹果&amp;quot;：从符号到坐标&lt;/h2>
&lt;h3 id="what符号的困境">What：符号的困境&lt;/h3>
&lt;p>想象一下，你是一个只能做加减乘除的计算器。现在，我让你计算：&lt;/p>
&lt;p>$$ \text{苹果} - \text{梨} = ? $$&lt;/p>
&lt;p>你会死机。因为&amp;quot;苹果&amp;quot;和&amp;quot;梨&amp;quot;是符号，不是数。你无法对符号进行微分，也无法对它们求梯度。为了让你能工作，我必须把这些符号变成数。&lt;/p>
&lt;p>但这不仅仅是&amp;quot;编码&amp;quot;那么简单。&lt;/p>
&lt;p>在计算机科学中，我们有过多种将符号变为数字的尝试。每一种尝试，都反映了人类对&amp;quot;意义&amp;quot;理解的一个阶段。&lt;/p>
&lt;h3 id="111-独热编码one-hot孤独的灯塔">1.1.1 独热编码（One-Hot）：孤独的灯塔&lt;/h3>
&lt;p>&lt;strong>What：什么是 One-Hot 编码&lt;/strong>&lt;/p>
&lt;p>最早期的尝试非常朴素。假设我们的字典里只有 5 个词：&lt;code>[苹果，梨，手机，电脑，书]&lt;/code>。&lt;/p>
&lt;p>我们可以这样编码：&lt;/p>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>词&lt;/th>
&lt;th>One-Hot 编码&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>苹果&lt;/td>
&lt;td>&lt;code>[1, 0, 0, 0, 0]&lt;/code>&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>梨&lt;/td>
&lt;td>&lt;code>[0, 1, 0, 0, 0]&lt;/code>&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>手机&lt;/td>
&lt;td>&lt;code>[0, 0, 1, 0, 0]&lt;/code>&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>电脑&lt;/td>
&lt;td>&lt;code>[0, 0, 0, 1, 0]&lt;/code>&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>书&lt;/td>
&lt;td>&lt;code>[0, 0, 0, 0, 1]&lt;/code>&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;p>这种方法叫 &lt;strong>One-Hot Encoding（独热编码）&lt;/strong>。它就像在黑暗的荒原上竖起了无数座灯塔，每个词都是一座孤岛。&lt;/p></description></item><item><title>0. 序言：打破黑盒的幻象</title><link>https://robert-xblog.art/tech/llm-principle/0-preface/</link><pubDate>Mon, 16 Mar 2026 12:04:00 +0800</pubDate><author>Robert</author><guid>https://robert-xblog.art/tech/llm-principle/0-preface/</guid><description>&lt;h2 id="在硅基的荒原上听见数学的轰鸣">——在硅基的荒原上，听见数学的轰鸣&lt;/h2>
&lt;hr>
&lt;h3 id="01-那个-20gb-的文件是什么">0.1 那个 20GB 的文件是什么？&lt;/h3>
&lt;p>当你打开电脑，双击那个名为 &lt;code>Llama-3-70B.gguf&lt;/code> 或 &lt;code>Qwen3.5-35B-int4&lt;/code> 的模型文件时，你面对的是什么？&lt;/p>
&lt;p>在大多数人的屏幕上，它是一个无所不知的智者，一位耐心的导师，甚至是一个会写诗、会编程、会安慰人的数字伴侣。它似乎拥有灵魂，拥有情感，甚至拥有某种我们无法参透的&amp;quot;意识&amp;quot;。人们惊叹于它的回答，恐惧于它的潜力，争论着它是否会取代人类。&lt;/p>
&lt;p>媒体用它做封面故事，资本用它做估值叙事，政客用它做竞选话题。它被神化，被魔化，被赋予各种超越其本质的意义。&lt;/p>
&lt;p>然而，作为一名理性的探索者，作为这本书的读者，我希望你暂时忘掉这一切。&lt;/p>
&lt;p>请把目光穿透那层光鲜亮丽的聊天界面，穿透那些拟人化的&amp;quot;思考中&amp;hellip;&amp;ldquo;提示符，直抵它的物理本质。&lt;/p>
&lt;p>在那里，没有神经元，没有突触，没有多巴胺，更没有所谓的&amp;quot;灵魂&amp;rdquo;。&lt;/p>
&lt;p>在那里，只有&lt;strong>矩阵（Matrix）&lt;/strong>。&lt;/p>
&lt;p>躺在你硬盘里的，不过是一个 20GB 大小的二进制文件，一堆静止的、冰冷的参数。它们是 350 亿个浮点数，整齐地排列在高维空间的坐标系中，像一座沉默的数学迷宫。每一个参数都是一个可调节的旋钮，每一个旋钮都曾在训练过程中被梯度下降算法反复拧动，直到找到那个能让预测误差最小的位置。&lt;/p>
&lt;p>这个文件不会&amp;quot;思考&amp;quot;，不会&amp;quot;理解&amp;quot;，不会&amp;quot;感受&amp;quot;。它只是静静地躺在那里，等待着被加载到 GPU 的显存中，等待着电流穿过那些硅制的晶体管，等待着矩阵乘法在万亿次每秒的速度下疯狂运转。&lt;/p>
&lt;p>但是，奇迹恰恰就发生在这里。&lt;/p>
&lt;p>当我们给这堆冰冷的数字通上电，将人类的语言转化为向量（Vector）注入其中，让电流驱动着矩阵乘法在 GPU 的硅晶圆上疯狂运转时——&lt;strong>意义（Meaning）&lt;/strong> 诞生了，&lt;strong>逻辑（Logic）&lt;/strong> 涌现了，&lt;strong>智能（Intelligence）&lt;/strong> 苏醒了。&lt;/p>
&lt;p>输入&amp;quot;今天天气真好&amp;quot;，输出&amp;quot;我们去公园散步吧&amp;quot;。&lt;/p>
&lt;p>输入&amp;quot;1+1=&amp;quot;，输出&amp;quot;2&amp;quot;。&lt;/p>
&lt;p>输入&amp;quot;请帮我写一首关于春天的诗&amp;quot;，输出&amp;quot;春风拂过柳梢头，万物复苏绿满丘&amp;hellip;&amp;quot;。&lt;/p>
&lt;p>这不是魔法。这是&lt;strong>数学&lt;/strong>。&lt;/p>
&lt;p>更准确地说，这是&lt;strong>线性代数、微积分、概率论&lt;/strong>三者交汇的产物。是 350 亿个参数在高维空间中的协同舞蹈。是梯度下降在损失函数曲面上雕刻出的最优路径。是信息压缩到极限后涌现出的生成能力。&lt;/p>
&lt;p>这不仅仅是工程学的胜利，这是&lt;strong>毕达哥拉斯主义&lt;/strong>在 21 世纪最宏伟的回响。&lt;/p>
&lt;p>公元前 6 世纪，毕达哥拉斯学派提出：&amp;ldquo;万物皆数&amp;rdquo;（All is number）。他们认为，宇宙的本质不是物质，而是数学关系。音乐的和谐是弦长比例的体现，行星的运动是几何轨道的演绎，世界的秩序是数字关系的表达。&lt;/p>
&lt;p>这个思想在之后的 2500 年里，被一次次验证。&lt;/p>
&lt;p>牛顿用微积分描述了天体运动，麦克斯韦用方程组统一了电磁现象，爱因斯坦用张量分析重构了时空概念，量子力学用希尔伯特空间描述了微观世界。&lt;/p>
&lt;p>今天，我们用 Transformer 架构描述了人类语言。&lt;/p>
&lt;p>&amp;ldquo;万物皆数&amp;rdquo;，这句古老的箴言，在人工智能时代获得了新的生命。&lt;/p>
&lt;hr>
&lt;h3 id="02-祛魅从神话回归算术">0.2 祛魅：从神话回归算术&lt;/h3>
&lt;p>本书的写作初衷，是一场**&amp;ldquo;祛魅&amp;rdquo; (Disenchantment)** 之旅。&lt;/p>
&lt;p>&amp;ldquo;祛魅&amp;quot;这个词，来自德国社会学家马克斯·韦伯。他用这个词描述现代社会的一个核心特征：随着科学理性的发展，世界逐渐失去了神秘的光环，一切现象都可以用因果关系来解释，不再有不可知的魔力。&lt;/p>
&lt;p>人工智能，尤其是大语言模型，是当代最后几个尚未被完全&amp;quot;祛魅&amp;quot;的领域之一。&lt;/p>
&lt;p>公众对它的认知，充斥着各种隐喻和误解：&lt;/p>
&lt;ul>
&lt;li>&amp;ldquo;它像人脑一样思考&amp;rdquo;——不，它没有神经元，只有矩阵乘法&lt;/li>
&lt;li>&amp;ldquo;它理解语言的含义&amp;rdquo;——不，它学习的是统计规律，不是语义本体&lt;/li>
&lt;li>&amp;ldquo;它会越来越聪明，最终超越人类&amp;rdquo;——不，它只是在优化预测下一个 Token 的概率&lt;/li>
&lt;li>&amp;ldquo;它是黑盒，没人知道它怎么工作&amp;rdquo;——不，每一层、每一个参数、每一次计算都是可解释的&lt;/li>
&lt;/ul>
&lt;p>在过去的一段时间里，我们进行了数十次深度的对话。我们剥离了&amp;quot;人工智能&amp;quot;这个词汇上附着的科幻色彩，试图用最朴素的数学直觉去回答那些最深刻的问题。提问者不是被动接受知识，而是不断追问本质、挑战假设、建立连接。回答者也不是简单复述教科书，而是从第一性原理出发，层层拆解，直抵核心。&lt;/p>
&lt;p>对话的核心问题包括：&lt;/p></description></item><item><title>00. 万物皆数：大语言模型的数学本质与哲学构建</title><link>https://robert-xblog.art/tech/llm-principle/00-llm-math-overview/</link><pubDate>Mon, 16 Mar 2026 12:00:00 +0800</pubDate><author>Robert</author><guid>https://robert-xblog.art/tech/llm-principle/00-llm-math-overview/</guid><description>&lt;h1 id="万物皆数大语言模型的数学本质与哲学构建">《万物皆数：大语言模型的数学本质与哲学构建》&lt;/h1>
&lt;h2 id="副标题从高维几何到智能涌现的推演实录">副标题：从高维几何到智能涌现的推演实录&lt;/h2>
&lt;p>总计：138,881 字&lt;/p>
&lt;hr>
&lt;h1 id="-全书大纲">📖 全书大纲&lt;/h1>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>章节&lt;/th>
&lt;th>标题&lt;/th>
&lt;th>简介&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>0&lt;/td>
&lt;td>&lt;strong>&lt;a href="../0-preface/">序言：打破黑盒的幻象&lt;/a>
&lt;/strong> - 去神秘化的起点&lt;/td>
&lt;td>从科幻神话回归矩阵运算，开启数学之旅&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>1&lt;/td>
&lt;td>&lt;strong>&lt;a href="../1-chapter1-embedding/">第一章：意义的几何学&lt;/a>
&lt;/strong> - 语言的向量化&lt;/td>
&lt;td>Token、Embedding、语义空间与高维几何&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>2&lt;/td>
&lt;td>&lt;strong>&lt;a href="../2-chapter2-attention/">第二章：智能的原子&lt;/a>
&lt;/strong> - 注意力机制的解构&lt;/td>
&lt;td>Self-Attention、Q/K/V、Softmax 与位置编码&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>3&lt;/td>
&lt;td>&lt;strong>&lt;a href="../3-chapter3-multihead/">第三章：多维视角的涌现&lt;/a>
&lt;/strong> - 多头注意力与 FFN&lt;/td>
&lt;td>Multi-Head、子空间分化、FFN 知识存储与残差连接&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>4&lt;/td>
&lt;td>&lt;strong>&lt;a href="../4-chapter4-gradient/">第四章：痛苦的学习&lt;/a>
&lt;/strong> - 梯度下降与反向传播&lt;/td>
&lt;td>Loss 地形、链式法则、压缩即智能与优化算法&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>5&lt;/td>
&lt;td>&lt;strong>&lt;a href="../5-chapter5-decoder/">第五章：时间的箭头&lt;/a>
&lt;/strong> - Decoder-Only 的统治&lt;/td>
&lt;td>架构之争、因果掩码、KV Cache 与推理优化&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>6&lt;/td>
&lt;td>&lt;strong>&lt;a href="../6-chapter6-epilogue/">终章：毕达哥拉斯的幽灵&lt;/a>
&lt;/strong> - 数学哲学反思&lt;/td>
&lt;td>数学的有效性、智能的本质与终极限制&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;hr>
&lt;h2 id="序言打破黑盒的幻象-the-disenchantment">序言：打破黑盒的幻象 (The Disenchantment)&lt;/h2>
&lt;ul>
&lt;li>
&lt;p>&lt;strong>0.1 那个 20GB 的文件是什么？&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>它不是大脑，不是灵魂，它是被固化的数学公式&lt;/li>
&lt;li>从&amp;quot;科幻神话&amp;quot;回归到&amp;quot;矩阵运算&amp;quot;&lt;/li>
&lt;li>350 亿个参数的本质：350 亿个可调节的旋钮&lt;/li>
&lt;li>去神秘化：LLM 不是魔法，是工程&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>&lt;strong>0.2 伽利略的预言&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>&amp;ldquo;大自然这本书是用数学语言写成的&amp;rdquo;&lt;/li>
&lt;li>人类语言（人文）与数学（理工）的世纪和解&lt;/li>
&lt;li>语言是对世界的压缩，数学是压缩的元语言&lt;/li>
&lt;li>道可道，非常道：可言说的与不可言说的边界&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>&lt;strong>0.3 本书的旅程&lt;/strong>&lt;/p></description></item><item><title>MemGPT 论文中文翻译：将 LLM 作为操作系统</title><link>https://robert-xblog.art/tech/memgpt-paper-translation/</link><pubDate>Sun, 22 Feb 2026 21:30:00 +0800</pubDate><author>Robert</author><guid>https://robert-xblog.art/tech/memgpt-paper-translation/</guid><description>MemGPT 论文完整中文翻译，介绍如何通过虚拟上下文管理技术突破 LLM 的上下文窗口限制</description></item></channel></rss>