ollama v0.20.0 发布:Gemma 4 全家桶来了,音频、视觉、MoE 能力全面升级

2026年4月4日

30

592

ollama v0.20.0 发布:Gemma 4 全家桶来了,音频、视觉、MoE 能力全面升级

2026年4月3日,Ollama 正式发布了 v0.20.0 版本。这次更新是近年来幅度最大的一次集中增强,不仅带来了 Google 最新的 Gemma 4 系列模型全规格支持,更在音频处理、Tokenizer 优化、MoE 架构修复等多个底层方向进行了系统性升级。对于关注本地大模型部署和开源工具链的开发者而言,这一版本值得关注。

Gemma 4 全系列正式支持

本次更新的核心可以概括为两个关键词:Gemma 4 全面支持、音频与推理能力升级。Gemma 4 作为 Google 最新的开源大模型系列,提供了从轻量到大规模的多规格选择,而 Ollama 这次实现了完整的适配支持。同时,音频方向的增强尤为亮眼,从输入到转写、从命令行到 API 接口,形成了一套完整的音频处理能力矩阵。

音频能力全面增强

v0.20.0 最重要的变化是 Gemma 4 相关支持的加入。Ollama 提供了四种可直接运行的模型规格: • Effective 2B(E2B):适合轻量场景,资源消耗低 • Effective 4B(E4B):在能力和资源消耗之间做了更平衡的选择 • 26B MoE:混合专家模型,包含 4B 活跃参数 • 31B Dense:大规模稠密模型,适合高性能场景 从规格覆盖来看,Gemma 4 已经形成了完整的轻量到大型模型矩阵,用户可以按具体场景和硬件资源灵活选择。同时,Gemma 4 的 GGML 模型支持也已加入,转换器也针对新的 weight drop 命名进行了更新,确保模型导入流程顺畅。

Gemma 4 的加入让 Ollama 的模型生态更加完整,音频能力的系统化增强更是补齐了多模态应用的关键一环。

“AI技术观察者”

Tokenizer 与推理优化

这次更新在音频方向的变化非常密集,堪称重点之一。Gemma 4 新增了音频支持,采用 USM conformer encoder 作为音频编码器。更关键的是,OpenAI 音频 API 支持已经加入,并配套了 capability detection 能力检测机制。 命令行层面也进行了重要更新:run 命令现在支持音频输入;新增了专门的转写命令 `ollama transcribe MODEL`,对于音频转文字场景非常实用;同时还增加了 OpenAI 音频转写 API 和 input_audio 支持。音频输入方式也被简化为 dropped file attachments,使用体验更直接。 从输入到转写、从 API 到命令行体验,v0.20.0 在音频方向完成了一整套能力补强。

MoE 架构与测试增强

Tokenizer 层面新增了 SentencePiece-style BPE 支持,这对于模型适配和分词处理非常重要,可以显著提升不同模型格式与分词规则的兼容性。Pipeline 中也修复了 add_bos_token 设置问题,使 Tokenizer 行为更贴合配置。 渲染器方面进行了重写,确保与 HuggingFace Jinja2 模板完全一致,这意味着模型输入模板行为会更加标准化,减少因模板差异导致的结果偏差。同时修复了 BOS token 输出问题。 Gemma 4 的 26B 版本是 MoE 模型,因此 MoE 相关改动尤为关键:为 MoE router 增加了 per_expert_scale 并修复了 moe_intermediate 问题;修复了 MoE fused gate_up split 和 multiline tool-call arg parsing;统一规范了 MoE block 字段对齐格式。缓存机制也进行了调整,使用 4096 kvcache.NewSWAMemCache 并启用 full SWA memory 以获得更好的缓存复用效果。

如有侵权,请联系删除。

Related Articles

联系我们 预约演示
小墨 AI