Qwen3.6-35B-A3B模型正式开源

2026年4月17日

61

266

Qwen3.6-35B-A3B模型正式开源

在人工智能技术飞速发展的今天,开源大模型已成为推动行业进步的重要力量。近期,阿里云千问团队正式开源了全新中等尺寸模型——Qwen3.6-35B-A3B,该模型采用混合专家(MoE)架构,在保持轻量高效的同时,在多项基准测试中展现出卓越性能,引发业界广泛关注。

智能体编程能力显著提升

Qwen3.6-35B-A3B模型采用了先进的MoE架构设计,总参数量达350亿,但在实际推理过程中仅激活30亿参数。这种设计使得模型在算力消耗与性能输出之间实现了出色的平衡,特别适合需要在有限计算资源下部署高质量AI应用的场景。相比传统的稠密模型,MoE架构能够在显著降低计算成本的同时,保持甚至超越同级别稠密模型的性能表现。

多模态推理表现媲美顶级闭源模型

在本次更新中,Qwen3.6-35B-A3B在智能体编程任务上的表现尤为亮眼。在Terminal-Bench2.0终端编程测试、NL2Repo长程编程任务以及QwenClawBench真实世界智能体能力评测等多项权威基准测试中,该模型的表现均明显优于前一代Qwen3.5-35B-A3B,并可与Qwen3.5-27B和Gemma4-31B等稠密模型一较高下。这标志着轻量级MoE模型在复杂编程任务处理能力上达到了新的高度。

MoE架构让轻量级模型也能具备与大型稠密模型相匹敌的能力,这是AI模型 efficiency 的一次重要突破。

“行业分析师”

深度兼容主流Agent框架

在多模态推理方面,Qwen3.6-35B-A3B同样展现出强劲实力。在MMBench、RealWorldQA、SimpleVQA等视觉语言基准测试中,新模型的表现已可媲美Claude-Sonnet-4.5等顶级闭源模型。特别是在空间智能相关测试中,该模型在RefCOCO和ODInW13等考核复杂图像识别能力的基准测试中分别取得92和50.8的优异成绩,处于业内前列位置。此外,新模型还支持多模态思考与非思考模式,进一步增强了其通用性和适应性。

随着AI进入智能体(Agent)时代,对模型能力提出了更高要求。Qwen3.6-35B-A3B实现了与OpenClaw、Qwen Code、Claude Code等主流Agent框架的深度兼容,能够将模型的编程能力和原生多模态能力更好地赋予各类智能体。在本地部署场景中,该模型可直接处理视频图像、工业相机视频流等多模态输入,在数据不出本地的前提下,构建涵盖数据感知、决策生成、工具执行等步骤的本地智能体闭环。这意味着企业可以在满足数据合规要求的同时,获得低延迟、高可靠的本地化多模态智能能力,智能制造、智慧巡检、具身智能等场景提供了理想的模型基座选择。

如有侵权,请联系删除。

Related Articles

联系我们 预约演示
小墨 AI