Karpathy 路线:从 RAG 到 LLM Wiki

整理 Andrej Karpathy 在不同时间点关于 Agent Memory / Knowledge 的核心主张

不是一个产品,是一组收敛的思想

graph LR
  A["LLM OS<br>2023"] --> B["RAG is a hack<br>2023-2024"]
  B --> C["LLM Wiki<br>2024-2025"]
  C --> D["Software 3.0<br>Context Engineering"]
  D --> E["Agent Memory<br>Letta 方向"]

  style C fill:#a78bfa33,stroke:#a78bfa,stroke-width:2px
  style E fill:#4ade8022,stroke:#4ade80,stroke-width:2px

五个关键主张

1. LLM OS(2023)

LLM 是新操作系统内核,context window = RAM,知识库 = 磁盘,工具 = 外设。

这个类比暗示:传统 RAG 只是一种”临时补丁”,就像操作系统出现之前用户手动管理内存。

2. “RAG is a hack”(多次提到)

核心论点:人类不是靠”在图书馆搜相似段落”来记住知识的。

当前的 RAG(把文档切碎塞进 embedding,用户提问时检索相关片段拼进 prompt)不是知识的组织方式——它只是搜索引擎的变体。

3. LLM Wiki(2024-2025)

最具体的一个设想:模型自己读写一个 wiki 风格的知识库

  • 模型不仅查,还要编辑、去重、归纳、交叉引用
  • 像人类维护 Notion / Obsidian 一样
  • 知识是被持续整理的活体制品,不是一次性灌进去的死数据

4. Software 3.0 / Context Engineering

Prompt + Context 本身就是编程。

  • Software 1.0 = 人写代码
  • Software 2.0 = 人标数据,模型学
  • Software 3.0 = 人管上下文,模型执行

核心技能从”写算法”变成”管理上下文”——这直接催生了 Context Engineering 作为一个新学科。

5. Agent Memory

Karpathy 明确认为 Letta / MemGPT 这类方向比朴素 RAG 更接近”正确答案”,但也指出目前所有 Memory 系统都还很粗糙。

谁在实现这条路线

公司 / 项目对应哪一步具体做了什么
AnthropicSkills / Artifacts / Projects用户可管理的结构化知识制品
OpenAIMemory / Custom GPTs跨会话记忆 + 个性化
Letta (MemGPT)全栈 Agent Memorytiered memory + sleep-time compute
Mem0Memory 抽象层轻量级记忆 API
LangGraphState + Checkpointing工作流状态持久化

延伸阅读