AI Agent 的发展经历了从"能跑"到"能治、可控、可规模化"的演进。在这一过程中,Harness Engineering 作为管理 Agent 外循环的工程体系,成为解决 Agent 不可控、不可靠问题的关键。
一、行业演进的五个阶段
AI Agent 的发展可以划分为五个阶段:
生成阶段(2022-2023):ChatGPT 出现,核心是 Prompt Engineering,模型能说不能做。
连接阶段(2023-2024):插件、Function Calling 出现,模型能调用工具,但连接混乱、难扩展。
推理阶段(2024):o1 等推理模型登场,MCP 协议统一工具连接,Context Engineering 兴起。
行动阶段(2025):Agent 爆发,但长任务易崩溃、失忆、乱输出、累积垃圾代码。
治理阶段(2026):Harness Engineering 正式成型,解决 Agent 不可控、不可靠问题。
二、Harness 的核心定义
Harness 是 Agent 的外循环控制系统,负责以下核心功能:
- 状态管理:跨会话不失忆
- 任务分解:将复杂任务拆解为可执行的子任务
- 工具编排:协调多种工具的调用顺序
- 结果验证:确保 Agent 输出符合预期
- 反馈闭环:建立有效的修正机制
- 熵增抑制:清理冗余代码、过期文档
- 人机交接:定义何时自主、何时交由人类处理
评估 Agent 能力,等于模型能力加上 Harness 能力。模型能力决定了 Agent 能做什么,而 Harness 能力决定了 Agent 能可靠地完成什么。
三、Harness 要解决的五大根本问题
状态持久:跨会话不失忆,用外部工件(文件、清单)存进度。Agent 在长任务执行过程中,需要能够持久化当前状态,避免因上下文耗尽而丢失进度。
目标一致:防止任务漂移,明确"什么叫完成"。Agent 需要清晰的完成标准,避免在执行过程中偏离原始目标。
行动可验证:不让模型自己判卷,用外部校验机制。Agent 不应自行判断输出是否正确,而应依赖外部验证机制。
熵增抑制:清理 AI 冗余代码、过期文档,保证长期稳定。随着 Agent 不断执行任务,系统会积累大量冗余信息和过时内容,需要定期清理以维持系统稳定性。
人机边界:定义何时自主、何时交人,避免失控。需要明确划定 Agent 的自主权限范围,在关键节点引入人类判断。
四、Harness 六大核心构件
持久状态面:用 feature list、进度文件实现跨会话续航。通过外部存储系统维护 Agent 的执行状态,确保长周期任务的可连续性。
任务分解与规划:Planner、Generator、Evaluator 三角色拆分长任务。Planner 负责规划执行路径,Generator 负责生成具体行动,Evaluator 负责验证结果。
反馈闭环:前馈引导(Guides)加上后置感知(Sensors),双层校验。前馈引导在行动执行前提供方向指导,后置感知在行动执行后收集反馈信息。
可感知性:让 Agent 能"看见"日志、指标、架构、文档。Agent 需要能够访问系统状态信息,以便做出更准确的决策。
工具中介:基于 MCP 协议,用代码间接调用工具,不挤占上下文。通过 MCP 统一管理工具调用,避免工具调用占用过多上下文空间。
熵控系统:定期重构、文档对齐、架构强约束,防系统腐化。建立系统性的维护机制,防止系统随时间推移而逐渐退化。
五、范式迁移:从指令驱动到意图驱动
过去,人给精确指令,Agent 按指令执行。这种模式要求人类对任务细节有完整了解,且指令必须精确无误。
现在,人给目标,Agent 自主执行。人类只需描述期望结果,Agent 负责规划实现路径。
Harness 就是意图时代的"操作系统层",负责任务治理、安全、资源调度。它定义了 Agent 执行任务的框架,确保在追求目标的过程中保持可控性。
六、关键定位
Harness 不是长 Prompt,不是框架,是工程学科。Prompt 是输入形式,框架是代码结构,而 Harness 是一套完整的工程体系,包括状态管理、验证机制、反馈系统等多个维度。
Harness 是 AgentOS 的用户态实现,负责任务治理;AgentOS 负责底层调度。两者分工明确,共同支撑 Agent 的可靠运行。
一个反直觉的结论是:模型越强,越需要 Harness,而非越不需要。强大模型意味着更强的自主行动能力,如果缺乏有效的约束机制,失控风险也更高。
七、行业结论
Harness Engineering 将成为 AI 工程基石。随着 Agent 应用的普及,如何确保 Agent 可靠、可控地运行,将成为工程实践的核心问题。
竞争壁垒从模型迁移到 Harness 设计。当模型能力趋于同质化时,Harness 设计的优劣将成为产品差异化的关键。
工程师角色从写代码变为设计自治系统、构建反馈与约束。未来的 AI 工程师需要具备系统思维,能够设计复杂的反馈与约束机制。
未来是:Agent 自主干活,Harness 确保靠谱。Agent 负责执行具体任务,Harness 负责治理与保障,两者协同实现可靠的人工智能应用。
参考文献
[1] lencx. 深度解析:Harness Engineering[EB/OL]. (2026-04-03)[2026-04-12]. https://mp.weixin.qq.com/s/-mgf8K7XZrTKoD0pMOIn3w.
[2] Anthropic. Building Effective Agents[EB/OL]. (2024-12)[2026-04-12]. https://www.anthropic.com/engineering/building-effective-agents.
[3] Anthropic. Effective context engineering for AI agents[EB/OL]. (2025)[2026-04-12]. https://www.anthropic.com/engineering/effective-context-engineering-for-ai-agents.
[4] Hashimoto M. My AI Adoption Journey[EB/OL]. (2026-02-05)[2026-04-12]. https://mitchellh.com/writing/my-ai-adoption-journey.
[5] OpenAI. Harness Engineering: Leveraging Codex in an Agent-First World[EB/OL]. (2026-02-11)[2026-04-12]. https://openai.com/index/harness-engineering.
[6] Fowler M. Harness Engineering - first thoughts[EB/OL]. (2026-04)[2026-04-12]. https://martinfowler.com/articles/exploring-gen-ai/harness-engineering-memo.html.
[7] Anthropic. Demystifying evals for AI agents[EB/OL]. (2026)[2026-04-12]. https://www.anthropic.com/engineering/demystifying-evals-for-ai-agents.