如何将 EmbedClaw 从 Qwen 扩展到五款国产大模型

2026年4月7日

58

573

如何将 EmbedClaw 从 Qwen 扩展到五款国产大模型

在嵌入式设备上运行 AI Agent 已成为边缘计算的重要应用场景。EmbedClaw 作为一款专为 ESP32 设计的 AI Agent 框架,最初仅支持阿里云的 Qwen 大模型。随着国产大模型的快速发展,项目作者将 DeepSeek、豆包、Kimi、腾讯混元四款主流国产模型纳入统一接入体系,实现了一次架构升级,多模型自由切换的目标。

配置文件的修改原则

这次扩展的技术核心在于:这五款国产大模型都兼容 OpenAI 的调用方式。EmbedClaw 在架构设计上采用了 provider 抽象层,默认初始化为 openai provider,内置了五组模型预设配置。这意味着在 EmbedClaw 里切换模型,本质上不是重写 Agent,也不是重写 Tool,真正需要修改的只有三项参数:API Key、API URL、Model Name。这种设计实现了「模型可替换,架构不动」的开发体验。

五款大模型接入详解

需要特别注意的是,真正应该修改的配置文件是 main/ec_config.h,而非组件内部的默认配置。components/embed_claw/ec_config_internal.h 负责提供默认值,而用户自己的模型切换和密钥配置应该放在 main/ec_config.h 中覆盖。配置开关采用宏定义方式,通过 EC_USE_QWEN、EC_USE_DEEPSEEK、EC_USE_DOUBAO、EC_USE_KIMI、EC_USE_HUNYUAN 五个开关来控制启用哪个模型。如果需要显式指定 API 地址和模型名,可以额外定义 EC_LLM_API_URL 和 EC_LLM_MODEL 来覆盖默认值。

切模型,应该是改配置,不应该是拆架构。

“小墨”

通义千问(Qwen)

作为 EmbedClaw 最早支持的模型,Qwen 至今仍是默认模型。仓库默认使用 dashscope-intl 阿里云国际站端点,模型为 qwen-plus。用户只需填入 EC_LLM_API_KEY 即可快速上手。DeepSeek 的接入同样简洁,仓库预设了 api.deepseek.com 端点和 deepseek-chat 模型。切换时只需关闭 Qwen 开关,打开 DeepSeek 开关并替换 API Key。建议在切换前先用 curl 命令验证云端接口是否正常,这样可以快速定位问题是出在平台侧还是设备侧。

DeepSeek

豆包的接入稍有不同的注意事项。虽然仓库提供了北京区域的默认端点和 doubao-seed-2-0-pro-260215 模型,但由于火山引擎不同区域、不同控制台入口、不同开通模型,最终获得的 URL 和 model 可能存在差异。作者建议直接使用控制台给定的实际值进行配置,而非完全依赖仓库默认值。Kimi 的接入已内置完成,默认端点为 api.moonshot.cn,模型为 kimi-k2.5,切换成本极低。腾讯混元(即腾讯元宝的底层模型)的默认端点为 api.hunyuan.cloud.tencent.com,使用 hunyuan-turbos-latest 模型,同样建议以控制台给出的具体模型名为准进行配置。

如有侵权,请联系删除。

Related Articles

联系我们 预约演示
小墨 AI