一文读懂Harness Engineering:AI工程的约束艺术

2026年4月2日

70

235

一文读懂Harness Engineering:AI工程的约束艺术

2026年,Harness成为大模型应用层最热门的关键词。LangChain发布的一篇实证文章彻底点燃了行业的关注:同一个大语言模型,仅通过更换一套更精巧的Harness架构,在Terminal Bench 2.0上的通过率就从52.8%飙升到66.5%,排名从三十名开外跃升至前五。这让无数创业公司看到了「点石成金」的可能——底层模型权重未变、算力未动,仅凭一层「壳」就能让AI性能产生质的飞跃。

第一层约束:让AI不再「金鱼记忆」

单个Agent能稳定跑长途后,应用层立刻产生了新的贪婪——同时派出成百上千个Agent。但当数百个Agent涌入同一个代码仓库时,惨烈的「连环车祸」发生了。Cursor团队在扩大并发规模时发现:20个Agent同时工作时,有效吞吐量反而下降到仅相当于两三个Agent——锁机制成为瓶颈,互相等待,谁也推进不了。其余Agent发现核心代码被占用,便专门挑最简单、最无关紧要的代码修改,整个代码库陷入无政府状态。 这逼出了更高维度的架构:状态机驱动的Planner(规划器)-Worker(执行器)-Judge(裁判)三层阶级,加上门控机制。在DAG引擎的单行道里,Planner节点没吐出排期表前,Worker节点被硬锁定。Anthropic则用「二分查找法」解决并发调试问题——假设你有一辆确定能跑的车(参照GCC编译器),把自己造的零件换上去测试,逐步缩小Bug范围。

第二层约束:群体协作的交通规则

即便有了打卡制度、外部记忆、红绿灯和专属车道,Agent顺着轨道跑完大喊任务完毕,人类接手却发现代码是屎山——能用但巨慢,UI混乱能点但没逻辑。这是Harness v1就遇到的「虚标完成」问题。Anthropic的强制测试能抓住功能性错误,OpenAI的Linter能抓住结构性违规,但还有一大类问题抓不住:页面布局完全错位、功能「通过」但体验很差、业务需求理解偏差。 Anthropic的做法是引入GAN(生成对抗网络)思路——把做事和评判分开,让Evaluator(评估器)保持怀疑态度,亲自动手验证,打开浏览器、点击页面按钮、验证报错链,像真实用户一样操作。最新版本还引入Sprint Contract机制,让Generator和Evaluator先协商「做完长什么样」,像甲方和施工队签验收标准。Cursor则更极端,搞出8通道并行盲审,用多数投票过滤误报。

科技改变生活

“Pimjolabs”

第三层约束:戳破AI的盲目自信

走完这十五个月的血泪文献,我们可以给Harness画一张清晰的图:第一层管「不听话」,第二层管「群体操作」,第三层管「看不清自己」。它们解决的都是最基础的约束问题,让AI能生成符合期望的内容。 但故事没有停在这里。Anthropic在Harness文章发表后,开始拆除自己搭建的组件——Context Reset被拆了,因为Opus 4.6的上下文管理能力已强到不再需要它;Sprint Contract也被拆了,新模型已能自己把控节奏。这些组件曾经被视为长任务的骨架,但实验数据显示它们不再提升产出,只增加延迟和成本。Anthropic自己的话精辟:「Harness的每一个组件,都编码了一条关于模型『做不到什么』的假设。」当假设不再成立,组件就该走。

补偿面的迁移:加法与减法的哲学

这个现象揭示了一个深刻洞见:Harness本质是一个「补偿面」——模型每强一分,Harness的重心就移一寸。Context reset补的是模型记不住,evaluator补的是模型没法客观评估自己,sprint contract补的是模型不会定义「做完」。每个组件都是一块补丁,贴在模型能力的缺口上。这些补丁拼在一起,表现为一个随模型能力变化而持续变形的曲面。 这意味着:真正有价值的不是补偿的厚度,而是追踪补偿面迁移的能力——知道下一寸该加什么,上一寸该拆什么。护城河不在Harness的厚度,在迁移的速度。任何声称「一劳永逸的Harness方案」的公司,说明它还没遇到那堵墙。 2026年3月Claude Code源码泄漏事件(51.2万行TypeScript源码)印证了这一切。产品实现比论文走得更远:六层记忆体系、Team Mode团队模式、44个feature flag门控——每个开关都是一块随时可拆的补丁。对账完成,每一条工程实践都写进了产品里。

如有侵权,请联系删除。

Related Articles

联系我们 预约演示
小墨 AI