MCP的逆袭:Anthropic亲上火线回应争议

2026年4月23日

56

881

MCP的逆袭:Anthropic亲上火线回应争议

过去几个月,AI社区对MCP(Model Context Protocol)的质疑声不断。ScaleKit的benchmark显示,CLI在token消耗上比MCP便宜10到32倍;Perplexity CTO公开表示内部正在远离MCP,因为72%的上下文窗口被MCP占掉。一时间,“MCP或将成弃子”的论调甚嚣尘上。然而就在社区几乎要给MCP判死刑的时候,Anthropic亲自下场,发布了一篇名为《构建能触达生产系统的Agent:MCP实践指南》的博客,用行动回应了所有质疑。

M×N问题:MCP的核心价值所在

Anthropic在博客开篇并没有急于反驳,而是先摆出了一个清晰的框架:Agent连接外部系统有三条路——直连API、CLI、MCP,各有各的适用场景。这三种方式并非非此即彼的替代关系,而是应该根据具体场景组合使用。

Token消耗:Tool Search与程序化调用

Anthropic承认,CLI在本地和沙箱环境里确实更加高效——Agent天生就说命令行语言,--help就能自描述,jq就能过滤,pipe就能组合。但问题在于,越来越多的生产级Agent正在跑在云上:Claude Cowork、Claude Managed Agents、移动端、Web端……这些环境没有本地文件系统,跑不了CLI。而MCP的定位,恰恰就是为这个场景服务的:一个远程服务器,通吃所有客户端。Anthropic给出的数据是:MCP SDK的月下载量从年初的1亿涨到了3亿。嘴上说不要,身体却很诚实——用脚投票的人越来越多了。

好的MCP服务器应该像CLI一样设计。

“Anthropic”

Cloudflare案例:代码编排的新范式

针对社区诟病最多的token膨胀问题,Anthropic给出了两个解法。第一个叫Tool Search:之前的做法是把所有工具定义一股脑塞进上下文,GitHub MCP服务器43个工具定义就是55,000 tokens,还没开始干活,工作台就被说明书堆满了。新做法是按需加载——Agent先描述它想做什么,系统在运行时搜索相关工具,只把匹配的几个拉进来。测试数据显示工具定义的token消耗减少了85%以上,而工具选择的准确率没有下降。第二个解法叫程序化工具调用:工具返回的结果不再直接丢回给模型,而是在代码执行沙箱里处理。Agent可以在沙箱里循环、过滤、聚合,只把最终结果返回到上下文。这个方案在复杂多步工作流上减少了约37%的token消耗。

博客里有个Cloudflare的案例值得细看。Cloudflare的MCP服务器覆盖了约2500个API端点,传统方式要把这2500个端点的工具定义全塞进上下文,画面简直不忍直视。而Cloudflare的做法是只暴露2个工具:search和execute。Agent先用search找到需要的API,然后写一段简短的脚本,通过execute在服务端沙箱里跑。整个工具定义只占约1K tokens。这个模式本质上是把CLI的哲学搬进了MCP协议——区别在于它跑在云端,走的是MCP协议,而不是本地的命令行。

如有侵权,请联系删除。

Related Articles

联系我们 获取方案
小墨 AI