1 min read

LLM:MCP vs Skills 核心差异

LLM 系列导航

1 LLM:Function Call(1)从传统工具调用到函数驱动 2020-09-08
2 LLM:关注因果推断研究进展 2023-06-22
3 LLM:人机协作 2024-05-19
4 LLM:分层管理风险定性 2024-08-08
5 LLM:FN分层分析与提升空间测算(1) 2024-09-12
6 LLM:FN分层分析与提升空间测算(2) 2024-09-12
7 LLM:FN分层分析与提升空间测算(3) 2024-09-12
8 LLM:FN分层分析与提升空间测算(4) 2024-09-12
9 LLM:FN分层分析与提升空间测算(5) 2024-09-12
10 LLM:推理不可复现的探索 2025-06-11
11 LLM:SFT 与 RL 的关系 2025-07-29
12 LLM:SFT 与 RL 的关系(理论修正与实践补充) 2025-07-30
13 LLM:SFT 与 RL 的关系(理论修正与实践补充II) 2025-07-31
14 LLM:表格数据特征工程(1)核心方法与框架 2025-08-03
15 LLM:表格数据特征工程(2)低数据场景的决策树生成 2025-08-03
16 LLM:表格数据特征工程(3)落地冷启动 2025-08-03
17 LLM:表格数据特征工程(4)线性可分性与模型选型 2025-08-03
18 LLM:撰写大模型落地提示词的关键 2025-08-27
19 LLM:从 Prompt 设计到工作流落地 2025-08-28
20 LLM:RL's Razor 抗遗忘 2025-09-04
21 LLM:RL's Razor 抗遗忘(2) 2025-09-04
22 LLM:RL's Razor 抗遗忘(3)SFT 与 RL 的认知偏差及应用 2025-09-04
23 LLM:RL's Razor 抗遗忘(4)on-policy认知误区 2025-09-04
24 LLM:RL's Razor 抗遗忘(5)RL在线生成样本 2025-09-04
25 LLM:MuseGraph融合GNN与LLM的通用图挖掘新框架 2025-09-05
26 LLM:幻觉成因与解决 2025-09-08
27 LLM:Agent 逻辑与应用场景 2025-09-23
28 LLM:拆解大模型缩放定律失效的三重分解 2025-10-05
29 LLM:近似on-policy数据抗遗忘 2025-10-21
30 LLM:近似on-policy数据抗遗忘(2)Iterative-SFT 2025-10-21
31 LLM:幻觉治理 2025-10-28
32 LLM:先验偏见(1)变量名带偏判断 2025-11-13
33 LLM:先验偏见(2)分层分析应对 2025-11-13
34 LLM:先验偏见(3)实验效度的场景化适配 2025-11-13
35 LLM:分层落地 2025-11-13
36 LLM:零样本在金融场景落地 2025-11-13
37 LLM:跨难度泛化的局限与量化 2025-11-26
38 LLM:重复提示词解锁非推理性能上限 2025-12-17
39 LLM:用失败样本提升指令遵循能力 2025-12-29
40 LLM:概率引导的高价值信号筛选 2026-01-14
41 LLM:低成本安全检测的级联方案 2026-01-16
42 LLM:定性编码的假阳性解决方案 2026-01-16
43 LLM:先验偏见(4)挑战与落地解决方案 2026-01-22
44 LLM:先验偏见(5)工程化方案 2026-01-22
45 LLM:先验偏见(6)递进式优化与工程化落地 2026-01-22
46 LLM:SimRL(1)分层评估 2026-02-03
47 LLM:SimRL(2)理论逻辑与工程落地 2026-02-03
48 LLM:SimRL(3)质量评估与落地优化 2026-02-03
49 LLM:OpenClaw 消息渠道配置实践 2026-03-22

一、MCP 与 Skills 的核心区别

1. 上下文加载策略(最本质差异)

维度 MCP Skills
加载方式 全量预加载:启动时将所有工具的名称、参数 Schema、示例完整注入上下文 渐进式懒加载:仅在语义匹配成功后,按需加载对应技能的指令与资源
Token 消耗 线性膨胀:工具越多,上下文占用越高,多工具场景下可占满 32K 窗口的 70% 以上 极低:仅在调用时传递必要信息,避免上下文污染
设计哲学 「把所有说明书摊在桌上」:依赖模型理解完整工具集 「用到时再翻说明书」:信任模型能按需匹配能力

2. 架构与实现复杂度

  • MCP:基于 JSON-RPC 2.0 的重型协议,需实现完整的 Server/Client 通信、认证、状态管理,调试依赖复杂 JSON 日志,可观测性差。
  • Skills:轻量标记式定义(通常为 Markdown/JSON 片段),无额外协议层,直接映射为本地 CLI/API 调用,调试与可组合性接近原生命令行。

3. 安全与灵活性

  • MCP:多模型协作与跨进程通信带来数据共享风险,权限管理僵化,初始化配置繁琐。
  • Skills:每个技能为独立沙箱化算子,权限边界清晰,支持工作区/用户/系统多层级优先级,迭代速度更快。

二、OpenClaw 原生拒绝 MCP 的核心原因

1. 性能与成本考量

MCP 的「上下文开销」与 OpenClaw 追求的低延迟、高并发目标冲突: - 多工具场景下,MCP 会挤占大量推理空间,导致响应变慢、成本飙升。 - OpenClaw 采用 Skills 渐进式加载,将上下文开销控制在最低水平,更适合生产环境。

2. 架构设计理念冲突

OpenClaw 核心设计是「本地优先、极简依赖」: - MCP 引入重型协议栈,增加系统复杂度,违背「减少依赖、快速迭代」的原则。 - Skills 与 OpenClaw 沙箱化、模块化架构天然契合,可直接复用 CLI/Shell 生态,无需额外适配。

3. 安全与隐私风险

  • MCP 跨进程/跨模型的通信模式,存在数据泄露与权限滥用风险。
  • Skills 采用沙箱隔离,每个技能仅拥有最小必要权限,更符合 OpenClaw 对安全与可控性的要求。

4. 生态与工程实践

  • OpenClaw 从诞生起就拥抱 CLI 生态,认为「最好的协议是没有协议」,直接调用系统命令更透明、可调试。
  • MCP 过度工程化,与开发者长期形成的命令行工作流脱节,实际落地体验差(如 Perplexity 弃用)。

三、补充:MCP 的适用场景与局限性

  • MCP 仍有价值的场景:电商导购、轻量工具集成等对上下文成本不敏感、需结构化调用的场景。
  • Skills/CLI 更优的场景:高并发生产环境、复杂任务流水线、需要频繁调试与可观测性的开发场景。

LLM 系列导航

1 LLM:Function Call(1)从传统工具调用到函数驱动 2020-09-08
2 LLM:关注因果推断研究进展 2023-06-22
3 LLM:人机协作 2024-05-19
4 LLM:分层管理风险定性 2024-08-08
5 LLM:FN分层分析与提升空间测算(1) 2024-09-12
6 LLM:FN分层分析与提升空间测算(2) 2024-09-12
7 LLM:FN分层分析与提升空间测算(3) 2024-09-12
8 LLM:FN分层分析与提升空间测算(4) 2024-09-12
9 LLM:FN分层分析与提升空间测算(5) 2024-09-12
10 LLM:推理不可复现的探索 2025-06-11
11 LLM:SFT 与 RL 的关系 2025-07-29
12 LLM:SFT 与 RL 的关系(理论修正与实践补充) 2025-07-30
13 LLM:SFT 与 RL 的关系(理论修正与实践补充II) 2025-07-31
14 LLM:表格数据特征工程(1)核心方法与框架 2025-08-03
15 LLM:表格数据特征工程(2)低数据场景的决策树生成 2025-08-03
16 LLM:表格数据特征工程(3)落地冷启动 2025-08-03
17 LLM:表格数据特征工程(4)线性可分性与模型选型 2025-08-03
18 LLM:撰写大模型落地提示词的关键 2025-08-27
19 LLM:从 Prompt 设计到工作流落地 2025-08-28
20 LLM:RL's Razor 抗遗忘 2025-09-04
21 LLM:RL's Razor 抗遗忘(2) 2025-09-04
22 LLM:RL's Razor 抗遗忘(3)SFT 与 RL 的认知偏差及应用 2025-09-04
23 LLM:RL's Razor 抗遗忘(4)on-policy认知误区 2025-09-04
24 LLM:RL's Razor 抗遗忘(5)RL在线生成样本 2025-09-04
25 LLM:MuseGraph融合GNN与LLM的通用图挖掘新框架 2025-09-05
26 LLM:幻觉成因与解决 2025-09-08
27 LLM:Agent 逻辑与应用场景 2025-09-23
28 LLM:拆解大模型缩放定律失效的三重分解 2025-10-05
29 LLM:近似on-policy数据抗遗忘 2025-10-21
30 LLM:近似on-policy数据抗遗忘(2)Iterative-SFT 2025-10-21
31 LLM:幻觉治理 2025-10-28
32 LLM:先验偏见(1)变量名带偏判断 2025-11-13
33 LLM:先验偏见(2)分层分析应对 2025-11-13
34 LLM:先验偏见(3)实验效度的场景化适配 2025-11-13
35 LLM:分层落地 2025-11-13
36 LLM:零样本在金融场景落地 2025-11-13
37 LLM:跨难度泛化的局限与量化 2025-11-26
38 LLM:重复提示词解锁非推理性能上限 2025-12-17
39 LLM:用失败样本提升指令遵循能力 2025-12-29
40 LLM:概率引导的高价值信号筛选 2026-01-14
41 LLM:低成本安全检测的级联方案 2026-01-16
42 LLM:定性编码的假阳性解决方案 2026-01-16
43 LLM:先验偏见(4)挑战与落地解决方案 2026-01-22
44 LLM:先验偏见(5)工程化方案 2026-01-22
45 LLM:先验偏见(6)递进式优化与工程化落地 2026-01-22
46 LLM:SimRL(1)分层评估 2026-02-03
47 LLM:SimRL(2)理论逻辑与工程落地 2026-02-03
48 LLM:SimRL(3)质量评估与落地优化 2026-02-03
49 LLM:OpenClaw 消息渠道配置实践 2026-03-22