【2024最新AI开源动态】Qwen3.6-35B-A3B正式发布!通义千问开源模型全面升级,支持MoE大模型架构、智能体编程与AI本地部署,编程+视觉双突破,完美兼容OpenClaw生态

✅ SEO优化版文章(人工撰写风格,兼顾可读性、信息密度与搜索引擎友好度):

阿里通义千问重磅开源Qwen3.6-35B-A3B!350亿参数+仅30亿激活,轻量MoE模型引爆智能体编程新范式

4月17日深夜,阿里通义实验室正式对外开源新一代混合专家(Mixture of Experts, MoE)大模型——Qwen3.6-35B-A3B。继广受关注的Qwen3.6-Plus发布后,这款聚焦“高效智能体落地”的开源模型迅速成为开发者社区热议焦点。

与传统稠密模型不同,Qwen3.6-35B-A3B采用先进MoE架构:总参数达350亿,但单次推理仅需激活约30亿参数,显著降低显存占用与推理延迟,在消费级GPU(如RTX 4090/3090)及中小企业算力环境下即可流畅部署,真正实现“大模型不重、强能力不贵”。

在能力维度上,它不止于语言理解——更原生支持多模态输入(图文联合感知)、双模式推理(支持“思考链”显式展开或静默快速响应),并首次将空间理解能力推向新高度:RefCOCO准确率达92.0%,ODInW13达50.8,已逼近甚至局部超越Claude Sonnet 4.5等闭源旗舰模型。

实测表现尤为亮眼:在主流编程基准(HumanEval、MBPP、CodeForces)中,全面超越前代Qwen3.5-27B(稠密)与Qwen3.5-35B-A3B(MoE),尤其擅长将自然语言指令精准转化为可运行代码。我们现场测试了热门网络梗题——输入“MBTI升级成SBTI?帮我写一个自嘲风H5测试页”,模型不仅秒懂语义逻辑,还自动构建题目结构、生成响应逻辑、输出完整HTML+JS代码,并附带趣味人格分析文案,全程无需人工调试。

更值得开发者关注的是其开箱即用的工程友好性:
🔹 全开源权重:已同步上线Hugging Face、ModelScope(魔搭)平台,支持一键下载;
🔹 云服务无缝接入:阿里云百炼平台开放API调用,模型标识为`qwen3.6-flash`,新增`preserve_thinking`参数,专为Agent任务保留完整思维链上下文;
🔹 生态广泛兼容:已适配OpenClaw、Qwen Code、Claude Code等主流编程助手框架,并原生支持Anthropic API协议,便于快速集成进现有AI工作流。

目前,用户可通过以下方式立即体验:
▸ 在线交互:[Qwen Studio](https://chat.qwen.ai/)(免配置、实时响应)
▸ 下载部署:[ModelScope地址](https://modelscope.cn/models/Qwen/Qwen3.6-35B-A3B)|[Hugging Face地址](https://huggingface.co/Qwen/Qwen3.6-35B-A3B)

随着Qwen3.6-35B-A3B的开源落地,通义千问正加速从“通用大模型”向“可信赖智能体基座”演进。对于AI应用开发者、Agent创业者与高校研究者而言,这不仅是又一款开源模型,更是低成本构建自主可控AI Agent的关键基础设施。

📌 (由多段落组成)
1. 开篇点明事件核心:阿里通义千问于4月17日深夜开源新一代MoE大模型Qwen3.6-35B-A3B,强调其作为Qwen3.6系列重要演进节点的战略意义。
2. 解析技术亮点:350亿总参 vs 30亿激活参数的轻量化设计,突出MoE架构在推理效率、部署成本上的突破性优势,点明对中小团队和边缘设备的友好性。
3. 多模态与空间智能能力升级:说明原生多模态支持(图文联合推理)、双模式切换机制,并以RefCOCO、ODInW13等权威指标对比Claude Sonnet 4.5,佐证其视觉语言理解实力。
4. 真实场景实测反馈:以“SBTI H5测试页”为例,生动呈现模型对网络语义的理解深度、指令转化精度及端到端代码生成能力,强化可信度与传播记忆点。
5. 全链路开发支持体系:系统梳理开源渠道(Hugging Face/ModelScope)、云服务接口(百炼API + preserve_thinking功能)、生态兼容性(OpenClaw/Claude Code/Anthropic协议),凸显工程落地便利性。
6. 结语升华价值定位:指出该模型不仅是技术迭代,更是面向智能体(Agent)时代的基础设施升级,呼应开发者、创业者与科研用户的实际需求。

🔍

本文来源: 智东西【阅读原文】
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...