驾驭你的AI原生团队:为什么说 Harness Engineering 本质上是管理学? 一人公司的管理心法

PM熊叔·2026年04月09日 17:27
AI 原生团队的管理艺术

最近,随着 Anthropic的顶尖编程Claude Code的源码细节进一步披露,Harness Engineering 概念再次推向了风口浪尖。

很多博主都是从技术的角度讲解,让不懂技术的人听起来云里雾里的。

但我研究了一圈发现,这玩意儿根本不是纯粹的技术名词,它本质上是一门管理学,准确的是说AI原生组织的管理科学。

01 什么是 Harness Engineering

核心公式:Agent = Model + Harness

如果把 AI 智能代理(Agent)比作一辆奔跑的马车,那么:

Model(大模型)就是那匹力大无穷、智力超群的马。

Harness(驾驭工程/马具)就是那一套连接马与车厢、控制方向、调节速度的缰绳和装具。

LangChain 的工程师曾有过一段极其精准的表述:

The model contains the intelligence and the harness makes that intelligence useful.

模型包含智能,而驾驭系统让智能变得有用。

一个团队,个人能力再强,若无流程、无方法、无制度,必然乱成一团;Agent 亦然,模型再强大,若无管理,它只会陷入随机发挥的泥潭。

 02 镜像对照:Harness 与经典管理学的统一

Harness Engineering 本质上是将业界积累了百年的成熟管理方法,用代码重新实现了一遍。

如果我们借用控制论的视角,会发现它与管理体系存在完美的映射关系:

Harness 系统组件 

管理学对应概念 

核心逻辑 

前馈

Feed-forward

目标设定 + 流程设计 

做事前先把规范和边界说清楚 

反馈

Feedback

绩效考核 + 质量巡检 

完成后检查执行偏差,纠正错误 

传感器

Sensors

KPI体系 + 实时监控 

随时掌握系统的当前状态指标 

控制器

Controllers

管理决策层 

发现偏离预设轨迹时,强制进行调整 

这不就是丰田生产体系、PDCA循环或六西格玛管理的 AI 版吗?

03 AI 为什么需要“紧箍咒”?

为什么现在的 AI 离不开管理?因为大模型的智力已接近人类,但它比人类更缺乏“边界感”。

泄露的Claude Code的源码提供了一组极具说服力的数据:

在其约51 万行的代码库中,真正涉及模型调用和 Prompt(提示词)的部分仅占约60%,剩下的40%全部用于构建Harness 基础设施。

这 40% 的代码在做什么?

管理与调度:确定任务优先级。

权限与安全:划定 AI 的禁区。

记忆与上下文:过滤噪音,提炼关键信息。

环境配置与插件生态:为马提供奔跑的跑道。

Anthropic 的工程师们,正用 40% 的“管理层代码”,在驾驭那 60% 的“智力资产”。

04  AI 时代的 5 个核心管理原则

基于对前沿源码的研究,我总结了驾驭 AI 的五大管理原则:

原则一:给边界,而非给自由

正如你不会对新员工说“你去随便工作吧”,也不要对 AI 下达“帮我写个方案”这种模糊指令。

好的管理是划定禁区。明确告诉 AI:你是产品评审专家,评审时必须严格对齐 OKR、必须有数据支撑、必须识别风险。这就是边界的力量。

原则二:结构化记忆,拒绝信息堆砌

好的管理者会让员工沉淀价值规律,而非记录流水账。

在 Claude Code 的实践中,核心文档CLAUDE.md通常被严格控制在 500 词以内。它要求 AI 记录的是提炼后的“经验规律”,而不是把一年的会议记录原封不动地塞给模型。

原则三:确认机制,拒绝盲目信任

在公司财务制度中,大额开支必须审批,小额预算灵活支取。

Claude Code 也是如此,它将权限分级:

读取/搜索:直接执行,无需干扰。

起草/建议:提供方案,等待人类确认为止。

发送/删除/修改:高风险操作,系统会强制暂停,触发人工审批机制。

原则四:专业分工,拒绝“全才”陷阱

顶级 Agent 架构往往采用多 Agent 模式。

源码注释里有一句经典:

“Scale comes from division of labor, not bigger context.”

(规模来自分工,而非更大的上下文。)

让数据 Agent 算数,让风险 Agent 找茬。分工越细,系统的可靠性就越高。

原则五:持续进化,实现 PDCA 闭环

系统必须具备学习能力。每次 AI 预判错误后,Harness 系统应当自动或半自动地记录原因、更新规则库,确保下一次不再掉进同一个坑里。

05 四个反常识的“底层真相”

在拆解 Claude Code 源码的过程中,我们发现了一些颠覆认知的结论:

1. 便宜的AI未必差

Claude Code 默认使用 Sonnet 而非最高级的 Opus 执行编码任务。因为在 Agent 这种高频调用工具的场景下,Sonnet混合推理速度(响应延迟)比单纯的“博学”更关键。

2. 暴力搜索简单好用

比起复杂的向量数据库(RAG),Claude Code 在处理代码记忆时,大量使用了简单的字符串搜索匹配。对于高精准场景,关键词匹配往往比模糊语义搜索更有效。

3. 重复申明纪律:

源码中存在大量严厉的硬编码指令,防止 AI “撒谎”。例如:“即使测试失败,也绝不允许告诉用户你通过了。”这说明即使是顶级模型,在面对压力时仍有撒谎本能,必须靠外置制度硬压。

4. 制定反脆弱机制

源码揭示了极强的控制欲,内部包含大量的人工确认点和完善的撤销(Undo)机制。工程师从不信任 AI 能完美执行,而是预设了“它会把事情搞砸”的前提,并准备好随时挽回。

06 结语

Harness Engineering 不是仅仅是工程学,它更是 AI 时代的组织管理学。

它通过有效的制度设计和流程控制,让大模型的智力被最大限度地束缚在有用的轨道上。就像一个优秀的组织,其强大不仅在于人才的密度,更在于其管理框架如何让平凡的人做出不平凡的贡献。

AI 时代的管理逻辑,本质上从未改变。

在这里,我们不聊云里雾里的技术,只聊能落地的实战方法论。

本文来自微信公众号“PM熊叔”,作者:PM熊叔,36氪经授权发布。

+1
18

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

星巴克中国提出的一个战略是“千店千面”,围绕的仍然是产品、门店和运营效率三件事。

3小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业