Mac M2本地部署OpenClaw与Ollama的实战经验

2026年4月5日

89

496

Mac M2本地部署OpenClaw与Ollama的实战经验

对于追求隐私和数据安全的用户来说,本地部署AI是一个极具吸引力的选择。然而,在Mac设备上部署开源AI框架往往比预期要复杂得多。本文将详细记录在MacBook Air M2(24GB内存)上部署OpenClaw与Ollama的完整过程,以及过程中遇到的六个关键问题和对应的解决方案。

坑一:Homebrew安装Ollama遭遇失败

在开始部署之前,我们需要明确目标:在完全离线环境下运行一个私密的AI助手,使用Qwen 3 8B作为语言模型。整个部署过程看似简单,但实际操作中却充满了各种意想不到的坑。

坑二:OpenClaw Gateway启动失败与配置修复

第一个坑出现在安装Ollama阶段。当尝试使用Homebrew安装时,系统直接报错,错误提示显示Cask定义无效。排查过程中尝试了更换清华镜像源、中科大源以及reset和force upgrade等操作,均告失败。最终解决问题的办法是绕过Homebrew,直接从官网(ollama.com/download)下载macOS安装包,手动拖入应用程序文件夹。这种方式虽然看似原始,但往往比纠结于包管理工具更为高效。安装完成后,菜单栏出现标志性的羊驼图标,即表示Ollama已成功运行。

有时候绕过问题比解决问题更快。

“经验总结”

坑三:host配置引发的无效配置问题

第二个坑是OpenClaw Gateway无法正常启动。运行status命令显示Gateway端口18789未在监听状态,错误提示需要设置gateway.mode=local。通过手动编辑~/.openclaw/openclaw.json配置文件,在gateway部分添加"mode": "local",然后依次执行stop、start命令后,Gateway成功启动,RPC probe显示正常。 然而,在排查过程中又遇到了第三个坑:按照网络教程添加了host和port配置后,系统直接报配置无效。原来OpenClaw会自动绑定默认地址和端口,手动指定反而会导致解析失败。删除这两个字段后问题立即解决。这个教训告诉我们:不要随意添加文档中未明确说明的配置项。

第四个坑出现在Agent配置层面。系统报错提示找不到Anthropic的API key,但实际上我们使用的是本地Ollama模型。检查配置发现agent的model部分仍残留着authProvider配置。解决方案是重新运行onboard向导,选择Custom Provider并正确配置Ollama的连接地址(http://127.0.0.1:11434/v1)和模型名称(qwen3:8b)。相比手动修改配置文件,onboard向导更为可靠。 第五个坑涉及Telegram通道配置。虽然在设置时跳过了Telegram,但系统仍在尝试连接并持续报错。需要在agent配置中手动删除或清空channels字段。 最后一个坑是连接被拒绝的错误。排查发现Ollama进程不知道何时被退出了,导致OpenClaw无法连接。需要在应用程序中重新打开Ollama.app,或使用brew services start ollama确保其开机自启动。

如有侵权,请联系删除。

Related Articles

联系我们 预约演示
小墨 AI