OpenClaw安全篇:你的AI助理正在裸奔吗?

2026年3月23日

59

296

OpenClaw安全篇:你的AI助理正在裸奔吗?

随着AI Agent技术的快速发展,OpenClaw作为一款开源的AI助理框架,正在被越来越多的开发者和企业投入使用。然而,在享受AI带来便利的同时,安全问题却常常被忽视。近期,OpenClaw社区频繁出现因配置不当导致的数据泄露事件,大多数安全问题的根源并非黑客攻击,而是“本不该对话的人成功触发了AI”。

DM策略:第一道防线的核心

与传统软件不同,AI助理具有理解自然语言并自主执行操作的能力。它可以执行命令行指令、读写本地文件、访问API接口、甚至通过聊天渠道向任何人发送消息。这意味着,一旦安全配置失误,AI可能成为攻击者的入口,帮攻击者获取敏感数据或执行恶意操作。因此,AI安全更关注的是“即使没有漏洞,AI也可能被人用话术诱导做坏事”。

群聊安全与权限控制

在OpenClaw的安全模型中,DM策略(dmPolicy)是控制“谁能与AI对话”的关键配置。这一策略相当于你家的门禁系统,决定了陌生人发来消息时AI如何处理。可选模式包括:pairing(默认配对模式)、allowlist(白名单模式)、open(开放模式)和disabled(禁用模式)。其中,open模式风险极高,任何人都能直接与你的AI对话,如果AI同时具备文件读写权限,你的电脑将对陌生人完全开放。pairing模式则要求陌生人输入配对码,必须经过你批准才能对话,这是目前推荐的安全做法。

你给了AI一把你家的钥匙,但传统安全关心的是门有没有漏洞,AI安全关心的是AI可能被人用话术骗着开门。

“安全专家”

五种最危险的配置

除了私聊配置,群聊同样存在高风险场景。群聊中消息量大,恶意指令更容易混在正常对话中,且提示注入(Prompt Injection)成功率远高于私聊。建议配置以下三个群聊安全选项:群白名单限制AI活动的群组范围;requireMention设为true确保AI只响应@指令;groupAllowFrom限制AI在允许群组中只响应特定用户消息。 在权限控制方面,OpenClaw提供工具策略系统(Tool Policy),可精确控制AI能使用的工具类型。核心权限分组包括:runtime(执行命令)、fs(文件读写)、messaging(消息发送)、automation(定时任务)、ui(浏览器操作)和sessions(会话管理)。安全原则很明确——最小权限原则:只授予AI完成当前任务所需的最小工具集。

对照以下五种危险配置进行检查:第一,dmPolicy设为open,任何人都能对话且AI有文件权限时风险极大;第二,Gateway暴露公网且无认证,应绑定loopback并设置随机token;第三,群聊全开放且工具权限过大;第四,~/.openclaw目录权限过于宽松,建议执行chmod 700 ~/.openclaw && chmod 600 ~/.openclaw/openclaw.json;第五,小模型配大权限,小模型更容易被提示注入操纵。

如有侵权,请联系删除。

Related Articles

联系我们 预约演示
小墨 AI