OpenClaw 3.22版本发布:底层架构全面升级,插件生态和安全防护迎重构

2026年3月23日

64

822

OpenClaw 3.22版本发布:底层架构全面升级,插件生态和安全防护迎重构

经过9天的沉默,OpenClaw团队终于放出了重磅更新。2026年3月22日,OpenClaw 3.22预览版正式发布,这次更新不再是简单的功能堆砌,而是对底层架构的一次全面大修。从插件系统到安全防护,从模型生态到用户体验,每一个模块都经历了深度重构。对于一款企业级AI智能体平台而言,这次更新释放了一个明确信号:OpenClaw正在从「功能完备」向「安全可靠」进化。

插件生态:从封闭走向开放

本次更新最核心的变化在于插件系统的彻底重构。旧有的openclaw/extension-api被一刀切式地完全移除,取而代之的是全新的模块化接口openclaw/plugin-sdk/*。这意味着所有依赖旧API的第三方插件都需要进行迁移。与此同时,插件分发的默认渠道也从npm切换为ClawHub——OpenClaw官方维护的插件市场。这一变化看似简单,实则意义深远:npm作为通用包管理器质量参差不齐,而ClawHub的审核机制能够有效提升插件生态的纯净度和安全性。

模型生态:GPT-5.4领衔,多厂商整合加速

如果说插件重构是面向未来的布局,那么安全修复就是对当下最紧迫的回应。3.22版本一口气修复了十多项安全漏洞,其中几个尤为关键:Windows SMB凭证泄露问题——攻击者可通过构造特殊路径窃取用户凭证,现已在核心媒体加载环节全面拦截;执行环境沙盒加固——封锁了MAVEN_OPTS、SBT_OPTS等JVM注入路径,彻底堵住GLIBC_TUNABLES利用通道;Unicode零宽字符审批伪装——之前攻击者可用不可见的韩文填充码位伪装审批提示,现已在网关和macOS原生审批界面全面转义。此外,语音通话Webhook的预认证防护也得到加强,body读取限制从1MB/30秒压缩至64KB/5秒。对于公网部署的用户,这次更新不是「建议更新」,而是「必须更新」。

敢用,比好用更难。

“编辑评论”

模型层面同样带来了实打实的升级。默认OpenAI模型正式切换至GPT-5.4,同时预置了gpt-5.4-mini和gpt-5.4-nano的前向兼容支持。MiniMax方面,默认模型从M2.5升级到M2.7,并合并了此前分离的API和OAuth两个插件入口,配置复杂度大幅降低。Anthropic Vertex的正式接入更是亮点——现在可以通过Google Vertex AI直接调用Claude模型,对已在Google Cloud上部署业务的团队而言价值不言而喻。xAI的Grok、Z.AI的GLM-4系列、Mistral等模型也都同步更新。OpenClaw作为「模型路由器」的定位正在被更多一线大模型厂商认可。

虽然这些更新不如插件重构和安全加固那样引人注目,但用户体验的优化同样值得关注。Android端终于支持了跟随系统的深色模式,覆盖从引导页到聊天页到语音页的全流程。Control UI新增了「圆角滑块」,用户可以自定义界面圆角程度。Telegram新增了DM论坛话题自动重命名功能——首条消息进入后,系统会用LLM生成有意义的话题标签,而非一串无意义的ID。飞书端则新增了结构化交互审批卡片和快捷操作启动卡片,并补上了推理流的实时渲染。浏览器集成方面,旧版Chrome扩展中继路径被移除,转而支持通过userDataDir直接连接Brave、Edge等Chromium内核浏览器。沙盒系统也新增了可插拔后端支持,首批上线OpenShell和SSH两个后端。

用户体验:细节打磨见真章

在Agent层面,长对话压缩机制进行了多轮迭代。新版在压缩过程中会自动延长运行截止时间,避免大型会话压缩到一半被超时杀掉;压缩后还会自动修复孤立的tool_result块,防止历史数据影响后续请求;空会话的压缩也终于不会陷入死循环。默认Agent超时时间从600秒直接拉至48小时,的长任务再也不会被10分钟的默认限制卡脖子。此外,新增的/btw命令允许用户在对话过程中随时插入「旁白问题」,AI会快速回答但不影响当前会话上下文——就像在会议中侧身问一句题外话,问完继续正题。

如有侵权,请联系删除。

Related Articles

联系我们 预约演示
小墨 AI