Gemma 4开源!谷歌在端侧AI上迈出关键一步

2026年4月4日

51

295

Gemma 4开源!谷歌在端侧AI上迈出关键一步

昨晚,谷歌正式发布并开源了Gemma 4,一次性推出四款模型,参数从51亿到310亿不等,全面覆盖端侧设备到本地开发场景。更值得关注的是,谷歌这次终于想明白了——放弃了此前延续三代的自有许可协议,直接采用业界最宽松的Apache 2.0开源协议。这个转变背后,是开源生态竞争格局的深刻变化。

从自有许可到Apache 2.0:谷歌的策略转变

四款模型定位清晰,形成了完整的产品矩阵:E2B(51亿参数,推理时激活约23亿)专为手机、IoT和边缘设备设计,内存可压到1.5GB以下;E4B(80亿参数,激活45亿)面向移动端和边缘计算设备;26B MoE采用252亿总参数、每次仅激活3.8B的架构,推理速度接近4B模型但质量远超4B水平;31B Dense全参数激活,一张80GB H100即可装载。其中26B MoE的表现尤为亮眼——在Arena AI开源排行榜上位列第六,而排在前面的模型参数量是它的十几甚至二十倍。

端侧部署:这次是动真格的

Gemma 1、2、3三代都使用谷歌自己的许可协议,允许商用但附加条款不少——谷歌可单方面修改规则,甚至有条款被解读为用Gemma生成的合成数据训练其他模型时协议会自动延伸。这种做法让开发者抱怨了一整年。在Meta的Llama系列早已用宽松协议占据开源生态心智、国内DeepSeek、Qwen、GLM密集发版的竞争格局下,继续在许可条款上设限只会加速开发者向竞品迁移。Apache 2.0是参与开源竞争的入场券,谷歌终于想明白了:开源不是施舍,是生存。

Byte for byte, the most capable open models.

“谷歌官方博客”

E2B和E4B从底层为计算和内存效率设计,推理时只激活23亿和45亿参数,以保护设备的RAM和电池寿命。谷歌与Pixel团队、高通、联发科深度合作,针对骁龙8 Elite等旗舰移动芯片的NPU做了专项优化。结果是这两款模型可以在手机、树莓派、NVIDIA Jetson Orin Nano等设备上完全离线运行,延迟接近于零。谷歌还配套发布了Google AI Edge Gallery应用,用户可直接下载体验AI Chat、Ask Image、Audio Scribe等功能,端侧AI第一次变得真正触手可及。

Gemma 4把Agent工作流支持列为第一优先级,原生支持Function Call、结构化JSON输出、System Instruction。模型可以作为Agent的核心大脑,自主规划多步骤任务、调用外部工具、搜索数据库、触发API。谷歌同步开源了Agent Development Kit框架,更关键的是端侧的E2B和E4B也能跑Agent。当Agent可以完全在本地运行,不依赖云端,隐私敏感场景、无网环境、实时响应需求都有了新的解法。

一个有趣的细节是:E2B和E4B自带约3亿参数的音频编码器,可做语音识别和语音翻译,最长支持30秒音频,反倒是大模型没有音频能力。这体现了谷歌对端侧场景的真正理解——手机端语音是刚需,工作站场景下不是。根据真实需求做取舍,而不是把所有能力都塞进去。

如有侵权,请联系删除。

Related Articles

联系我们 预约演示
小墨 AI