Ollama v0.18.3 发布:VS Code 原生集成 + Agent 模式,本地 AI 开发体验全面革新

2026年3月27日

83

910

Ollama v0.18.3 发布:VS Code 原生集成 + Agent 模式,本地 AI 开发体验全面革新

开源本地大模型管理工具 Ollama 近日正式发布 v0.18.3 版本,这是该工具在 AI 开发工具集成领域的又一次重要里程碑。本次更新聚焦于 VS Code 深度原生集成与 Agent 模式能力开放两大核心功能,同时完成了多项底层优化与 Bug 修复。从版本数据来看,本次更新由 8 位贡献者共同参与,累计提交 22 次代码修改,覆盖 83 个文件,实现了功能与稳定性的全面提升。

概述

Ollama v0.18.3 带来了一项重磅功能——VS Code 原生集成。开发者仅需在终端输入「ollama launch vscode」或「ollama launch code」命令,即可自动完成 Ollama 与 VS Code 的深度绑定,无需额外配置复杂的插件或中间件。这一功能让本地大模型成为 VS Code 开发环境的原生组成部分,开发者可以在 Copilot Chat 中直接调用本地部署的所有 Ollama 模型,实现 AI 辅助编码。

分析

完成命令绑定后,开发者只需三步即可在 VS Code 中使用 Ollama 模型:第一步,打开 Copilot Chat 界面(macOS 使用 Ctrl+Cmd+I,Windows/Linux 使用 Ctrl+Alt+I);第二步,点击输入框上方的模型选择器;第三步,在「Other models」选项中选择本地部署的 Ollama 模型。这一流程彻底简化了此前需要手动安装扩展并配置模型地址的繁琐步骤。

工具的进步永远是为了让开发者能够更专注于创造本身。

“技术编辑”

三步操作实现本地模型调用

本次更新还正式开放了 Agent 模式,使 Ollama 能够借助 VS Code 的 Agent 能力自主执行开发任务,从单纯的「问答式 AI 助手」升级为「可行动的开发智能体」。开发者可以通过自然语言指令让 Ollama 自动完成「运行测试并修复失败用例」「生成单元测试」「更新 README 文档」等复杂任务,实现开发流程的自动化与智能化。

Agent 模式:从问答到自主执行

除核心功能外,v0.18.3 还完成了多项底层优化:GLM 解析器升级提升工具调用稳定性;MLX Runner 实现 KV 缓存跨会话共享降低推理成本;新增 mxfp4、mxfp8、nvfp4 等量化格式支持;修复了桌面应用加载、CI 流程等多项问题。文档方面也同步更新了 Claude Code、OpenClaw、Nemoclaw 等集成的使用指南。

如有侵权,请联系删除。

Related Articles

联系我们 预约演示
小墨 AI