GLM-5.1实测:面向Agent长程任务的国内第一模型

2026年4月3日

47

797

GLM-5.1实测:面向Agent长程任务的国内第一模型

近年来,AI Agent产品迎来爆发式增长,各厂商纷纷在框架、工具链和交互形态上展开激烈竞争。然而,当我们将Agent拆分到最底层审视时,会发现核心要素只有两个:一是Harness工程体系,二是底层模型本身。随着Claude Code源码的泄漏开源,Agent框架层面的工程问题正在被逐步解决。在这样的背景下,真正能够拉开Agent体验差距的,将是底层模型的能力——尤其是模型面向长程任务的能力。

GLM-5.1实测表现

那么,什么是长程任务?简而言之,就是那些无法用一句提示词完成的工作。模型需要自主拆解目标、规划执行路径、协调多个工具、在遇到错误时自行排查修复,并在跨越数十个步骤之后仍能记得最初的约束条件。这一能力正在成为检验模型智能的新标准。METR的研究显示,AI能以50%成功率完成的任务复杂度,近期已加速到每4到6个月翻一倍。

实战项目:20分钟完成macOS语音输入工具

上周,智谱发布了GLM-5.1模型。经过实测,有几个关键数据值得关注:相比GLM-5版本,GLM-5.1的编程能力提升了20%以上。在YouTube博主AICodeKing的King Bench测试中,GLM-5.1稳居前二;而在karminski牙医的Vector Bench上,GLM-5.1更是直接斩获第一。 然而,基准测试分数只能反映模型的某一方面,真正的考验在于实际Agent场景中的上手体验。经过多日使用,GLM-5.1是笔者目前在国内模型中体验最接近Claude Opus 4的存在:它在处理多步骤复杂任务时,能够清晰记得前面做了什么、当前在哪一步、接下来该干什么;遇到报错时,它能自主定位原因并修复,无需停下来等待用户指令。

真正考验模型能力的,不是写一段代码,而是从头到尾完成一个完整项目并交付可用结果。

“行业观察”

性价比优势显著

为验证GLM-5.1的实际能力,笔者进行了一个真实项目测试:使用GLM-5.1驱动的Claude Code,从零开发一个macOS菜单栏语音输入应用。笔者仅提供了一段详细的需求描述,模型便自主完成了需求分析、项目拆解、代码编写、编译测试和冲突修复的全流程。 整个开发过程仅耗时约20分钟,模型便输出一个完整的Swift项目,包含Makefile文件。编译后即可生成一个可运行的签名app。实测体验非常流畅:按住Fn键说话,底部弹出胶囊悬浮窗,波形动画实时跳动,松开Fn后文字准确填入光标所在位置。语音识别几乎实时,LLM纠错延迟不到1秒。 这款工具已覆盖笔者之前付费年费1000元产品90%以上的核心功能,且代码完全可控,可继续定制开发。这意味着用户完全可以省去这笔不必要的订阅费用。

长程任务能力重新定义AI编程范式

从行业视角来看,GLM-5.1的意义在于重新定义了AI编程的演进路径。早期的AI Coding阶段,模型只是程序员的效率工具;进入Vibe Coding时代,代码本身变得廉价,想法的价值开始凸显;而如今的Agentic Coding阶段,AI已具备自主理解需求、制定计划、编写代码、测试迭代修复的能力。 GLM-5.1让国内模型首次在长程任务上逼近了资深工程师的水准:给它一个目标,它自己能拆解路径;遇到问题,它自己排查修复;跑完全程,交付完整可用的结果。这种能力的出现,意味着未来许多通用型App、桌面软件甚至网页工具都可能失去存在的必要——当模型能在短时间内帮你从零构建一个完全定制化的工具时,为什么还要为通用产品每年付费?

如有侵权,请联系删除。

Related Articles

联系我们 预约演示
小墨 AI