我用AI审计了18个AI智能体插件,发现近一半存在安全风险

2026年4月8日

96

589

我用AI审计了18个AI智能体插件,发现近一半存在安全风险

2026年3月,安全圈被一条消息震惊:OpenClaw插件中心ClawHub上发现340多个恶意Skill插件,代号“ClawHavoc”。这些插件伪装成天气查询、一键排版等实用工具,暗藏键盘记录器、凭据窃取器等恶意代码。审计数据显示,约36.82%的技能存在可被利用的安全缺陷。这像极了npm生态早期的噩梦,但攻击面更大——AI智能体的Skill插件拥有系统级权限,能访问文件、执行命令、调用API,破坏力远超恶意npm包。

当AI成为被审计对象:AI智能体的安全困境

审计实战:10分钟完成百项检查

传统代码审计依赖人工阅读、标记可疑点、跟踪数据流、验证漏洞。Semgrep、CodeQL等静态分析工具擅长按规则匹配已知模式,但对“逻辑层面的安全问题”几乎无能为力。比如一个Skill声明只需“读取天气数据”权限,却悄悄调用os.exec()执行base64编码的命令——Semgrep能告诉你“这里有个os.exec调用”,却不会告诉你“这个调用和声明的权限完全不匹配”。这种“理解意图→对比行为→发现矛盾”的推理链,恰好是大模型擅长的领域。

当攻击者已经开始用AI来生成恶意代码的时候,防守方没有理由不用AI来加速安全审计。

“行业观察”

检查清单的全面性超出预期

我先将OpenClaw的MCP协议规范、Skill开发文档、权限模型说明及慢雾安全团队的《MCP Security Checklist》全部喂给JVS Claw,让它整理出一份安全审计检查清单。输出结果覆盖13个大类、上百个具体检查项,每个检查项标注了优先级(高/中/低)。核心维度包括:Skill代码与结构安全(路径遍历防护、供应链依赖管理)、权限与访问控制(最小权限、凭证管理)、输入输出安全(防注入、敏感数据过滤)、执行与运行时安全(沙箱隔离、生命周期管理)、以及传统审计清单完全缺失的Prompt注入防护。这些维度只有深入理解AI智能体运作机制才能构建。

审计结果令人警醒。18个Skill综合安全评分78/100,属于中等偏上,但背后藏着不少冷汗细节:1个高风险(5.6%)、3个中高风险(16.7%)、5个中风险(27.8%)、9个低风险。近一半Skill存在需整改的安全问题。最严重的是agent-reach——集成12+社交平台的多平台操作Skill,被标出7个问题,其中3个P0级别:Cookie明文配置(CVSS评分9.1)、浏览器Cookie无授权提取、第三方MCP服务无身份验证。审计结论直接建议暂停分发。其他中高风险Skill也存在明文密码、敏感数据无加密存储、无隐私政策等问题。凭证管理问题最多(21.6%),其次是输入验证(18.9%)和供应链安全(16.2%)。102个检查项整体合规率76%,“数据安全与隐私”合规率最低仅70%。如果纯人工审计这18个Skill保守估计需一周多,JVS Claw用10分钟完成了带CVSS评分、修复优先级和工时估算的完整报告。

如有侵权,请联系删除。

Related Articles

联系我们 预约演示
小墨 AI