1 min read

LLM:长会话体验差异的拆解——Claude Code与OpenClaw上下文管理策略对比

LLM 系列导航

1 LLM:Function Call(1)从传统工具调用到函数驱动 2020-09-08
2 LLM:关注因果推断研究进展 2023-06-22
3 LLM:人机协作 2024-05-19
4 LLM:分层管理风险定性 2024-08-08
5 LLM:FN分层分析与提升空间测算(1) 2024-09-12
6 LLM:FN分层分析与提升空间测算(2) 2024-09-12
7 LLM:FN分层分析与提升空间测算(3) 2024-09-12
8 LLM:FN分层分析与提升空间测算(4) 2024-09-12
9 LLM:FN分层分析与提升空间测算(5) 2024-09-12
10 LLM:推理不可复现的探索 2025-06-11
11 LLM:SFT 与 RL 的关系 2025-07-29
12 LLM:SFT 与 RL 的关系(理论修正与实践补充) 2025-07-30
13 LLM:SFT 与 RL 的关系(理论修正与实践补充II) 2025-07-31
14 LLM:表格数据特征工程(1)核心方法与框架 2025-08-03
15 LLM:表格数据特征工程(2)低数据场景的决策树生成 2025-08-03
16 LLM:表格数据特征工程(3)落地冷启动 2025-08-03
17 LLM:表格数据特征工程(4)线性可分性与模型选型 2025-08-03
18 LLM:撰写大模型落地提示词的关键 2025-08-27
19 LLM:从 Prompt 设计到工作流落地 2025-08-28
20 LLM:RL's Razor 抗遗忘 2025-09-04
21 LLM:RL's Razor 抗遗忘(4)on-policy认知误区 2025-09-04
22 LLM:RL's Razor 抗遗忘(5)RL在线生成样本 2025-09-04
23 LLMRL's Razor 抗遗忘(2) 2025-09-04
24 LLMRL's Razor 抗遗忘(3)SFT 与 RL 的认知偏差及应用 2025-09-04
25 LLM:MuseGraph融合GNN与LLM的通用图挖掘新框架 2025-09-05
26 LLM:幻觉成因与解决 2025-09-08
27 LLM:Agent 逻辑与应用场景 2025-09-23
28 LLM:拆解大模型缩放定律失效的三重分解 2025-10-05
29 LLM:近似on-policy数据抗遗忘 2025-10-21
30 LLM:近似on-policy数据抗遗忘(2)Iterative-SFT 2025-10-21
31 LLM:幻觉治理 2025-10-28
32 LLM:先验偏见(1)变量名带偏判断 2025-11-13
33 LLM:先验偏见(2)分层分析应对 2025-11-13
34 LLM:先验偏见(3)实验效度的场景化适配 2025-11-13
35 LLM:分层落地 2025-11-13
36 LLM:零样本在金融场景落地 2025-11-13
37 LLM:跨难度泛化的局限与量化 2025-11-26
38 LLM:重复提示词解锁非推理性能上限 2025-12-17
39 LLM:用失败样本提升指令遵循能力 2025-12-29
40 LLM:概率引导的高价值信号筛选 2026-01-14
41 LLM:低成本安全检测的级联方案 2026-01-16
42 LLM:定性编码的假阳性解决方案 2026-01-16
43 LLM:先验偏见(4)挑战与落地解决方案 2026-01-22
44 LLM:先验偏见(5)工程化方案 2026-01-22
45 LLM:先验偏见(6)递进式优化与工程化落地 2026-01-22
46 LLM:SimRL(1)分层评估 2026-02-03
47 LLM:SimRL(2)理论逻辑与工程落地 2026-02-03
48 LLM:SimRL(3)质量评估与落地优化 2026-02-03
49 LLM:MCP vs Skills 核心差异 2026-03-22
50 LLM:OpenClaw 消息渠道配置实践 2026-03-22
51 LLM:OpenClaw 检索架构的工程实现与设计逻辑 2026-03-24
52 LLM:OpenClaw 的Memory原生架构与Agent发展方向 2026-03-24
53 LLM:Coze云端开发环境初始化与504超时问题排查 2026-03-28
54 LLM:OpenClaw 微信 ClawBot 插件配置指南 2026-03-28
55 LLM:Agent Skill与状态管控的工程化定论 2026-04-03
56 LLM:代码智能体入门核心概念界定与三大关键组件详解 2026-04-05
57 LLM:OpenClaw 一个月观察 2026-04-07
58 LLM:多模态模型规模误区与分工协作架构解析 2026-04-07

LLM:长会话体验差异的拆解——Claude Code与OpenClaw上下文管理策略对比

背景:为什么能知道这些

2026 年 3 月 31 日,Anthropic 发布 npm 包时发生打包失误,将包含 Source Map 的 51.2 万行完整 TypeScript 源码泄露至公网。这套源码包含了 Claude Code 完整的成本管理、分层压缩、子 Agent 隔离的架构细节——此前官方从未公开过这些内部实现。

本文所讨论的所有架构对比,均来自这次源码泄露。在泄露之前,Claude Code 长会话体验好的原因完全是个黑盒;泄露之后,OpenClaw 与 Claude Code 在上下文管理上的工程差距才完整暴露。

核心结论

Claude Code 与 OpenClaw 使用同款底层模型,但长会话体验的显著差距,并非来自模型能力,而是 Agent 框架对 200K 上下文窗口的管理策略与工程选择不同。

长会话后半段,OpenClaw 易出现上下文丢失、忘记已读文件、重复操作等问题;Claude Code 同类问题出现时间更晚,状态恢复能力也更强。

用「聊天记笔记」理解长会话

把 AI 的「长会话」比作你和朋友聊一上午工作,AI 的「上下文窗口」就是你的脑子能记住的内容上限,「上下文管理」就是你怎么记重点、怎么清理脑子冗余信息,保证聊到下午还不忘记上午说的关键内容。

二者底层模型一样,就像你和朋友记忆力底子一样,体验差在「记笔记、清脑子」的方法不一样。

第一步:聊到脑子快记不下时,怎么「清冗余」

Claude Code:先简单清,清不了再细弄

就像你脑子快满了,先做几个零成本的简单清理:

  • 先看看:是不是半小时没聊了?要是的话,直接把不重要的废话(比如之前发的临时链接、工具回复)换成一句话「之前发过 XX 链接」,脑子立刻空出一块
  • 要是还满,就把脑子里重复的内容直接删掉(比如反复提的一个文件路径),不影响核心记忆
  • 要是前两步都清完还满,才开始认真梳理:把上午聊的核心内容总结成 100 字笔记,替换掉脑子里的大段对话

全程先做简单、不费脑子的操作,实在不行才花精力总结。

OpenClaw:一满就直接大总结

就像你脑子一满,没有任何简单清理步骤,直接放下手里的事,把上午聊的所有内容逐句读一遍,再总结成笔记,不仅费时间、还容易漏掉一些细节。

为什么「等半小时」才清理

核心是留痕不占空间,避免后续聊回来,AI 完全忘光。

AI 的「脑子」里存着两类内容:

  • 核心内容:你聊的核心问题、代码需求、关键结论
  • 边角内容:工具返回的临时结果、文件链接、重复的指令回复

边角内容有两个特点:聊到后面基本用不上;占地方、特别费内存。

等半小时没说话,是一个明确的「暂停信号」:说明你当下不聊了,这些临时的边角内容,短时间内用不上了。这时候清,既不会影响后续聊天,又能精准腾出内存。

为什么用一句话占位,而不是直接删掉

直接删掉,后续你再提这个文件,AI 会完全忘记,大概率会问你「什么文件?发我一下」。

换成一句话占位:

  • 清理前:你发了文件链接,工具返回了一大串文件目录,十几行特别占地方
  • 清理后:直接把上面一大串,换成一句话「此前已读取文件:登录代码.py,含 login.py、utils.py 等文件」

一句话比十几行目录省 90% 空间;后续你再聊这个文件,AI 看到这句占位话,立刻能想起来「哦,之前已经读过这个文件了」。

第二步:平时聊天时,会不会「实时记笔记」

Claude Code:边聊边记

就像你和朋友聊天,手里一直拿着小本本,聊到关键信息就随手记(比如「要改 XX 文件的 3 个地方」「遇到 XX 错误,解法是 XX」),笔记是实时更新的结构化内容。

等脑子快满了,直接把小本本的笔记往脑子里一放,替换掉大段对话,不用再重新回忆、重新总结。

OpenClaw:不实时记

就像你聊天时从来不记笔记,脑子满了之后,得回头翻一上午的聊天记录,一点点找重点总结,不仅慢,还容易翻漏、记混。

第三步:聊到需要查资料时,会不会「弄脏脑子」

Claude Code:小助理只报结果

就像你们聊到一个不懂的问题,你喊来一个小助理,让他去查资料:小助理自己找、自己看,不打扰你们聊天,最后只跟你说「查到了,核心结论是 XX」。

你的脑子只记核心结论,不会被无关资料占空间。

OpenClaw:查资料自己来

就像你们聊到不懂的问题,你自己放下聊天,去翻一堆资料,还把所有查的资料、过程全记在脑子里,聊不了几次,脑子就被这些无关资料占满了。

多任务并行:为什么 OpenClaw 不适合

OpenClaw 没有「专人干专事」的机制,所有任务都挤在同一个「脑子」里,互相挤占。

多任务并行 = 同时开好几个窗口。比如你同时做三件事:写代码、查资料、处理风控规则。

对 Claude Code 这种架构:查资料交给小助理去查,小助理只返回一句话结论,主线程干干净净。

但 OpenClaw 不是这样:查资料自己查,查完把全文、过程、日志、结果全部塞进主线程;再切回写代码,上下文已经被资料占满;再切回风控,三件事全挤在一起。任务一多,前面的事全忘。

最终结论

Claude Code 适合长时间、多任务、连续深度工作,任务之间隔离、不互相污染。

OpenClaw 适合短会话、单一任务、快速交互,多任务并行或会话拉长后,容易出现忘内容、重复操作、上下文混乱。


参考

LLM 系列导航

1 LLM:Function Call(1)从传统工具调用到函数驱动 2020-09-08
2 LLM:关注因果推断研究进展 2023-06-22
3 LLM:人机协作 2024-05-19
4 LLM:分层管理风险定性 2024-08-08
5 LLM:FN分层分析与提升空间测算(1) 2024-09-12
6 LLM:FN分层分析与提升空间测算(2) 2024-09-12
7 LLM:FN分层分析与提升空间测算(3) 2024-09-12
8 LLM:FN分层分析与提升空间测算(4) 2024-09-12
9 LLM:FN分层分析与提升空间测算(5) 2024-09-12
10 LLM:推理不可复现的探索 2025-06-11
11 LLM:SFT 与 RL 的关系 2025-07-29
12 LLM:SFT 与 RL 的关系(理论修正与实践补充) 2025-07-30
13 LLM:SFT 与 RL 的关系(理论修正与实践补充II) 2025-07-31
14 LLM:表格数据特征工程(1)核心方法与框架 2025-08-03
15 LLM:表格数据特征工程(2)低数据场景的决策树生成 2025-08-03
16 LLM:表格数据特征工程(3)落地冷启动 2025-08-03
17 LLM:表格数据特征工程(4)线性可分性与模型选型 2025-08-03
18 LLM:撰写大模型落地提示词的关键 2025-08-27
19 LLM:从 Prompt 设计到工作流落地 2025-08-28
20 LLM:RL's Razor 抗遗忘 2025-09-04
21 LLM:RL's Razor 抗遗忘(4)on-policy认知误区 2025-09-04
22 LLM:RL's Razor 抗遗忘(5)RL在线生成样本 2025-09-04
23 LLMRL's Razor 抗遗忘(2) 2025-09-04
24 LLMRL's Razor 抗遗忘(3)SFT 与 RL 的认知偏差及应用 2025-09-04
25 LLM:MuseGraph融合GNN与LLM的通用图挖掘新框架 2025-09-05
26 LLM:幻觉成因与解决 2025-09-08
27 LLM:Agent 逻辑与应用场景 2025-09-23
28 LLM:拆解大模型缩放定律失效的三重分解 2025-10-05
29 LLM:近似on-policy数据抗遗忘 2025-10-21
30 LLM:近似on-policy数据抗遗忘(2)Iterative-SFT 2025-10-21
31 LLM:幻觉治理 2025-10-28
32 LLM:先验偏见(1)变量名带偏判断 2025-11-13
33 LLM:先验偏见(2)分层分析应对 2025-11-13
34 LLM:先验偏见(3)实验效度的场景化适配 2025-11-13
35 LLM:分层落地 2025-11-13
36 LLM:零样本在金融场景落地 2025-11-13
37 LLM:跨难度泛化的局限与量化 2025-11-26
38 LLM:重复提示词解锁非推理性能上限 2025-12-17
39 LLM:用失败样本提升指令遵循能力 2025-12-29
40 LLM:概率引导的高价值信号筛选 2026-01-14
41 LLM:低成本安全检测的级联方案 2026-01-16
42 LLM:定性编码的假阳性解决方案 2026-01-16
43 LLM:先验偏见(4)挑战与落地解决方案 2026-01-22
44 LLM:先验偏见(5)工程化方案 2026-01-22
45 LLM:先验偏见(6)递进式优化与工程化落地 2026-01-22
46 LLM:SimRL(1)分层评估 2026-02-03
47 LLM:SimRL(2)理论逻辑与工程落地 2026-02-03
48 LLM:SimRL(3)质量评估与落地优化 2026-02-03
49 LLM:MCP vs Skills 核心差异 2026-03-22
50 LLM:OpenClaw 消息渠道配置实践 2026-03-22
51 LLM:OpenClaw 检索架构的工程实现与设计逻辑 2026-03-24
52 LLM:OpenClaw 的Memory原生架构与Agent发展方向 2026-03-24
53 LLM:Coze云端开发环境初始化与504超时问题排查 2026-03-28
54 LLM:OpenClaw 微信 ClawBot 插件配置指南 2026-03-28
55 LLM:Agent Skill与状态管控的工程化定论 2026-04-03
56 LLM:代码智能体入门核心概念界定与三大关键组件详解 2026-04-05
57 LLM:OpenClaw 一个月观察 2026-04-07
58 LLM:多模态模型规模误区与分工协作架构解析 2026-04-07