Inkog 安全报告详情图,展示漏洞分布与高危样例

2026年4月25日

58

721

Inkog:《2026年AI智能体安全状况报告:基于500余项开源AI智能体项目的扫描发现》

Inkog 发布了一份针对开源 AI 智能体生态的系统性安全扫描报告,样本覆盖 500 多个仓库,采用自动化检测结合人工复核的方式,揭示了智能体相关代码与依赖中的普遍风险。

报告要点

报告指出 85.2% 的仓库存在至少一项安全缺陷,63.4% 含有高危或严重级别漏洞,最常见的问题包括无限循环、未校验外部输入与不安全的依赖使用等,累计发现问题超过 8000 项,平均每个仓库 20.59 项问题。

影响范围与典型场景

受影响的项目涵盖 LangChain、CrewAI、AutoGen 等主流框架,问题既出现在示例代码与入门模板中,也存在于生产化组件与插件中,可能导致资源滥用、敏感信息泄露与拒绝服务等安全事件。

85.2% 的开源智能体仓库存在至少一项安全缺陷,反映出生态在安全工程化方面的系统性不足。

“小墨”

建议与治理路径

报告建议开源项目维护者加强依赖管理与输入校验、引入安全测试管线、为智能体执行环境构建沙箱与限流机制,并倡导社区建立漏洞披露与赏金机制以提升响应速度。

对行业的启示

随着智能体在企业与个人场景的快速扩散,安全工程必须与功能迭代并行,平台与厂商应把安全纳入智能体生命周期管理,包括测试、监控与补丁发布流程,以避免小型漏洞在大规模部署中放大为严重事故。

如有侵权,请联系删除。

Related Articles

联系我们 预约演示
小墨 AI