1 min read

LLM:Claude Code 和 OpenClaw 的长会话差距

LLM 系列导航

1 LLM:Function Call(1)从传统工具调用到函数驱动 2020-09-08
2 LLM:关注因果推断研究进展 2023-06-22
3 LLM:人机协作 2024-05-19
4 LLM:分层管理风险定性 2024-08-08
5 LLM:FN分层分析与提升空间测算(1) 2024-09-12
6 LLM:FN分层分析与提升空间测算(2) 2024-09-12
7 LLM:FN分层分析与提升空间测算(3) 2024-09-12
8 LLM:FN分层分析与提升空间测算(4) 2024-09-12
9 LLM:FN分层分析与提升空间测算(5) 2024-09-12
10 LLM:推理不可复现的探索 2025-06-11
11 LLM:SFT 与 RL 的关系 2025-07-29
12 LLM:SFT 与 RL 的关系(理论修正与实践补充) 2025-07-30
13 LLM:SFT 与 RL 的关系(理论修正与实践补充II) 2025-07-31
14 LLM:表格数据特征工程(1)核心方法与框架 2025-08-03
15 LLM:表格数据特征工程(2)低数据场景的决策树生成 2025-08-03
16 LLM:表格数据特征工程(3)落地冷启动 2025-08-03
17 LLM:表格数据特征工程(4)线性可分性与模型选型 2025-08-03
18 LLM:撰写大模型落地提示词的关键 2025-08-27
19 LLM:从 Prompt 设计到工作流落地 2025-08-28
20 LLM:RL's Razor 抗遗忘 2025-09-04
21 LLM:RL's Razor 抗遗忘(4)on-policy认知误区 2025-09-04
22 LLM:RL's Razor 抗遗忘(5)RL在线生成样本 2025-09-04
23 LLMRL's Razor 抗遗忘(2) 2025-09-04
24 LLMRL's Razor 抗遗忘(3)SFT 与 RL 的认知偏差及应用 2025-09-04
25 LLM:MuseGraph融合GNN与LLM的通用图挖掘新框架 2025-09-05
26 LLM:幻觉成因与解决 2025-09-08
27 LLM:Agent 逻辑与应用场景 2025-09-23
28 LLM:拆解大模型缩放定律失效的三重分解 2025-10-05
29 LLM:近似on-policy数据抗遗忘 2025-10-21
30 LLM:近似on-policy数据抗遗忘(2)Iterative-SFT 2025-10-21
31 LLM:幻觉治理 2025-10-28
32 LLM:先验偏见(1)变量名带偏判断 2025-11-13
33 LLM:先验偏见(2)分层分析应对 2025-11-13
34 LLM:先验偏见(3)实验效度的场景化适配 2025-11-13
35 LLM:分层落地 2025-11-13
36 LLM:零样本在金融场景落地 2025-11-13
37 LLM:跨难度泛化的局限与量化 2025-11-26
38 LLM:重复提示词解锁非推理性能上限 2025-12-17
39 LLM:用失败样本提升指令遵循能力 2025-12-29
40 LLM:概率引导的高价值信号筛选 2026-01-14
41 LLM:低成本安全检测的级联方案 2026-01-16
42 LLM:定性编码的假阳性解决方案 2026-01-16
43 LLM:先验偏见(4)挑战与落地解决方案 2026-01-22
44 LLM:先验偏见(5)工程化方案 2026-01-22
45 LLM:先验偏见(6)递进式优化与工程化落地 2026-01-22
46 LLM:SimRL(1)分层评估 2026-02-03
47 LLM:SimRL(2)理论逻辑与工程落地 2026-02-03
48 LLM:SimRL(3)质量评估与落地优化 2026-02-03
49 LLM:MCP vs Skills 核心差异 2026-03-22
50 LLM:OpenClaw 消息渠道配置实践 2026-03-22
51 LLM:OpenClaw 检索架构的工程实现与设计逻辑 2026-03-24
52 LLM:OpenClaw 的Memory原生架构与Agent发展方向 2026-03-24
53 LLM:Coze云端开发环境初始化与504超时问题排查 2026-03-28
54 LLM:OpenClaw 微信 ClawBot 插件配置指南 2026-03-28
55 LLM:OpenClaw 记忆系统:三级架构的正确理解 2026-03-28
56 LLM:Agent Skill与状态管控的工程化定论 2026-04-03
57 LLM:代码智能体入门核心概念界定与三大关键组件详解 2026-04-05
58 LLM:OpenClaw 一个月观察 2026-04-07
59 LLM:多模态模型规模误区与分工协作架构解析 2026-04-07
60 LLM:Harness Engineering:AI Agent 的外循环工程体系 2026-04-12
61 LLM:Harness:Agent系统的信息筛选机制 2026-04-15
62 LLM:OpenClaw Heartbeat:让Agent拥有定时任务能力 2026-04-15
63 LLM:强化学习风控(1)RLVP框架与专家稠密奖励 2026-04-18
64 LLM:生产级 Agent 工程范式:从 Claude Code 看模型与基础设施的边界 2026-04-22

用了一个月 Claude Code 再切回 OpenClaw,长会话体验的落差比我想象的明显。不是模型的问题——两边都用 Claude 3.7 Sonnet——是 Agent 框架管理 200K 上下文窗口的策略不同。

背景:源码泄露暴露的工程差距

3 月底 Anthropic 打包 npm 包时出了乌龙,51.2 万行 TypeScript 源码泄露到公网,包括成本管理、分层压缩、子 Agent 隔离这些内部实现。之前只知道 Claude Code 长会话体验好,但不知道怎么做到的;泄露之后才明白,原来是工程上的差距。

核心发现:不是模型能力,是工程策略

长会话后半段,OpenClaw 更容易出现上下文丢失、忘记已读文件、重复操作。Claude Code 同类问题出现得更晚,状态恢复能力也更强。两边底层模型一样,差距在框架怎么管理那 200K 的上下文窗口。

三种不同的工程选择

清理策略:渐进式 vs 一刀切

Claude Code 的做法更渐进:半小时没对话就把临时链接换成一句话占位,还满就删掉重复内容,实在不行才开始认真总结。全程先做零成本清理,费脑子的操作留到最后。

OpenClaw 则是上下文一满就直接大总结,回头翻整个会话记录逐句读一遍再压缩。不仅慢,还容易漏细节。

实时记录:边聊边记 vs 满了再记

Claude Code 会在对话过程中持续维护一个关键点列表,聊到重要信息就随手记下。等上下文快满了,直接把列表内容整合进去,不用再重新回忆总结。

OpenClaw 没有这种实时维护的机制,满了之后只能回头翻记录找重点。慢,还容易记混。

任务隔离:子 Agent vs 单线程

聊到需要查资料时,Claude Code 会唤起子 Agent 去处理,子 Agent 自己查、自己看,最后只向主线程报一句结论。主线程的上下文保持干净。

OpenClaw 没有这种隔离机制,查资料、写代码、处理规则全挤在同一个上下文里。多任务并行时,查资料的结果、过程、日志全部塞进主线程,再切回其他任务时,上下文已经被无关信息占满,前面的事很容易忘。

实际使用感受

Claude Code 适合长时间、多任务、连续深度工作,任务之间隔离得好,不容易互相污染。代价是工程复杂度高,生态封闭。

OpenClaw 适合短会话、单一任务、快速交互。响应快、配置灵活、生态开放,但会话拉长或任务变多后,容易出现上下文混乱、重复操作。

选哪个取决于使用场景:需要长时间深度工作,Claude Code 更稳;需要快速响应和灵活配置,OpenClaw 也能胜任。


参考

LLM 系列导航

1 LLM:Function Call(1)从传统工具调用到函数驱动 2020-09-08
2 LLM:关注因果推断研究进展 2023-06-22
3 LLM:人机协作 2024-05-19
4 LLM:分层管理风险定性 2024-08-08
5 LLM:FN分层分析与提升空间测算(1) 2024-09-12
6 LLM:FN分层分析与提升空间测算(2) 2024-09-12
7 LLM:FN分层分析与提升空间测算(3) 2024-09-12
8 LLM:FN分层分析与提升空间测算(4) 2024-09-12
9 LLM:FN分层分析与提升空间测算(5) 2024-09-12
10 LLM:推理不可复现的探索 2025-06-11
11 LLM:SFT 与 RL 的关系 2025-07-29
12 LLM:SFT 与 RL 的关系(理论修正与实践补充) 2025-07-30
13 LLM:SFT 与 RL 的关系(理论修正与实践补充II) 2025-07-31
14 LLM:表格数据特征工程(1)核心方法与框架 2025-08-03
15 LLM:表格数据特征工程(2)低数据场景的决策树生成 2025-08-03
16 LLM:表格数据特征工程(3)落地冷启动 2025-08-03
17 LLM:表格数据特征工程(4)线性可分性与模型选型 2025-08-03
18 LLM:撰写大模型落地提示词的关键 2025-08-27
19 LLM:从 Prompt 设计到工作流落地 2025-08-28
20 LLM:RL's Razor 抗遗忘 2025-09-04
21 LLM:RL's Razor 抗遗忘(4)on-policy认知误区 2025-09-04
22 LLM:RL's Razor 抗遗忘(5)RL在线生成样本 2025-09-04
23 LLMRL's Razor 抗遗忘(2) 2025-09-04
24 LLMRL's Razor 抗遗忘(3)SFT 与 RL 的认知偏差及应用 2025-09-04
25 LLM:MuseGraph融合GNN与LLM的通用图挖掘新框架 2025-09-05
26 LLM:幻觉成因与解决 2025-09-08
27 LLM:Agent 逻辑与应用场景 2025-09-23
28 LLM:拆解大模型缩放定律失效的三重分解 2025-10-05
29 LLM:近似on-policy数据抗遗忘 2025-10-21
30 LLM:近似on-policy数据抗遗忘(2)Iterative-SFT 2025-10-21
31 LLM:幻觉治理 2025-10-28
32 LLM:先验偏见(1)变量名带偏判断 2025-11-13
33 LLM:先验偏见(2)分层分析应对 2025-11-13
34 LLM:先验偏见(3)实验效度的场景化适配 2025-11-13
35 LLM:分层落地 2025-11-13
36 LLM:零样本在金融场景落地 2025-11-13
37 LLM:跨难度泛化的局限与量化 2025-11-26
38 LLM:重复提示词解锁非推理性能上限 2025-12-17
39 LLM:用失败样本提升指令遵循能力 2025-12-29
40 LLM:概率引导的高价值信号筛选 2026-01-14
41 LLM:低成本安全检测的级联方案 2026-01-16
42 LLM:定性编码的假阳性解决方案 2026-01-16
43 LLM:先验偏见(4)挑战与落地解决方案 2026-01-22
44 LLM:先验偏见(5)工程化方案 2026-01-22
45 LLM:先验偏见(6)递进式优化与工程化落地 2026-01-22
46 LLM:SimRL(1)分层评估 2026-02-03
47 LLM:SimRL(2)理论逻辑与工程落地 2026-02-03
48 LLM:SimRL(3)质量评估与落地优化 2026-02-03
49 LLM:MCP vs Skills 核心差异 2026-03-22
50 LLM:OpenClaw 消息渠道配置实践 2026-03-22
51 LLM:OpenClaw 检索架构的工程实现与设计逻辑 2026-03-24
52 LLM:OpenClaw 的Memory原生架构与Agent发展方向 2026-03-24
53 LLM:Coze云端开发环境初始化与504超时问题排查 2026-03-28
54 LLM:OpenClaw 微信 ClawBot 插件配置指南 2026-03-28
55 LLM:OpenClaw 记忆系统:三级架构的正确理解 2026-03-28
56 LLM:Agent Skill与状态管控的工程化定论 2026-04-03
57 LLM:代码智能体入门核心概念界定与三大关键组件详解 2026-04-05
58 LLM:OpenClaw 一个月观察 2026-04-07
59 LLM:多模态模型规模误区与分工协作架构解析 2026-04-07
60 LLM:Harness Engineering:AI Agent 的外循环工程体系 2026-04-12
61 LLM:Harness:Agent系统的信息筛选机制 2026-04-15
62 LLM:OpenClaw Heartbeat:让Agent拥有定时任务能力 2026-04-15
63 LLM:强化学习风控(1)RLVP框架与专家稠密奖励 2026-04-18
64 LLM:生产级 Agent 工程范式:从 Claude Code 看模型与基础设施的边界 2026-04-22