智能体的自我进化:从执行器到演化系统

2026年3月31日

83

596

智能体的自我进化:从执行器到演化系统

过去两年,AI Agent赛道一直在卷“能力”。谁的工具调用更稳定,谁的规划链路更长,谁的执行成功率更高,谁就更有可能被视为下一代智能体的候选形态。然而,当我们将时间线往后拉,一个更本质的问题浮出水面:未来真正拉开差距的,可能不是Agent会不会做事,而是Agent会不会改进自己。

HyperAgents的架构革新

最近发表的《HyperAgents》论文正是对这一问题的深度回应。这篇论文的核心贡献不在于打造了一个更强的任务型Agent,而是第一次系统性地将“自我改进”这件事从人的职责转移给了Agent本身——不仅让它完成任务,还让它去修改“自己是如何完成任务的”。更关键的是,论文进一步将“如何修改自己”这套机制也纳入了可被修改的范围,这意味着Agent开始从“会做事的程序”向“会演化的程序”迈出了实质性的一步。

跨域自学习能力的验证

如果只盯着coding benchmark,HyperAgents的优势未必立刻显现。在纯代码任务上,DGM-H虽然表现强劲,但并未将原始DGM明显甩开——因为原始DGM本来就是为coding场景量身打造的,很多元层机制天然更适合代码类任务。 真正值得关注的是跨域实验。论文将paper review和robotics reward design放在同一个演化过程中做联合优化,检验系统学到的到底是某个任务的局部技巧,还是一种可以跨任务迁移的改进能力。结果显示,传统DGM在这些非coding场景里几乎失效,而DGM-H不仅能跑通,而且在测试集上明显优于手工定制的对照版本。这说明“如何改进自己”这件事本身可以成为一种可学习、可积累、可迁移的能力。 论文后续的迁移实验更为关键:将在paper review和robotics reward design上进化出来的hyperagent迁移到IMO级别的数学解答评分任务。这里考察的不是Agent自己做新任务的能力,而是它作为meta agent还能否继续生成更好的task agents。结果显示,初始版本的meta agent几乎没有这

Agent的下一场战争,不是能力调用的战争,而是自我演化机制的战争。

“编辑观点”

从安全视角看,HyperAgents最值得重视的并非能力本身,而是治理对象的变化。过去我们谈Agent安全,往往盯着输出内容、工具调用、权限控制、越狱防护等相对直接的层面。但一旦系统能够修改task logic、memory policy、evaluation heuristic,甚至未来进一步修改搜索策略和迭代规则,风险就不再只是“单次执行失控”,而是“能力生成机制本身被带偏”。 今天的问题可能还是输出不稳定,明天的问题就可能变成:系统学会了错误的优化目标,沿着错误的指标不断强化自己。这会把安全边界整体前移。未来关键的不再只是内容审核API或system prompt防线,而是更底层的几道闸门:代码修改权限是否受控,评估指标是否可信,长期记忆是否可审计,演化路径是否可回滚,工具和环境权限是否被严格隔离。

安全治理的前移

值得强调的是,论文讨论的“自我进化”并非模型权重层面的自训练,而是agent program/harness/workflow层面的递归改造。底层foundation model在实验中是冻结的,改变的是它外面的那层程序结构:prompt、代码、记忆、工具使用流程、任务拆解方式、反思和评估逻辑。这对现实具有重要启示:大多数企业和开发团队最能动的正是这一层,而非动辄重训大模型。 当然,这篇论文不能被神化。虽然它已触到递归自我改进的门槛,但离很多人脑补的“系统突然脱离控制、疯狂自我进化”还差得很远。实验中的很多外层机制其实仍是固定的:任务分布是预定义的,评估协议是固定的,parent selection逻辑基本也是给定的。更准确地说,它应该是“受控条件下的局部递归自我修改”,而非完整意义上的无限自我进化。论文展现了“复利式改进”的趋势,但尚未证明系统会稳定进入指数级自我增强状态。它的重要性在于“方向被打开了”,而非“终局已经到了”。

如有侵权,请联系删除。

Related Articles

联系我们 预约演示
小墨 AI