以下是根据您提供的原始进行人工风格的整理后的文章,符合SEO优化需求,更具可读性与搜索引擎友好性,同时保留了核心信息和关键词价值。
## (由多段落组成)
阿里巴巴开源新一代编程大模型Qwen3-Coder,参数达4800亿!
近日,阿里巴巴通义实验室旗下的Qwen团队正式开源了其最新编程大模型——Qwen3-Coder-480B-A35B-Instruct。该模型是目前Qwen系列中参数量最大的开源编程模型之一,拥有高达4800亿参数,激活参数为350亿,原生支持256K上下文,且可通过外推技术扩展至100万token输入,最大输出长度为6.5万token。
在多项编程与智能体任务的基准测试中,Qwen3-Coder表现优异,尤其在智能体编程、浏览器操作、工具调用三大任务中,达到了开源模型的SOTA(State of the Art)水平,超越了如Kimi K2、DeepSeek V3等知名开源模型,甚至可与闭源模型GPT-4.1、Claude Sonnet 4等媲美。
多尺寸模型布局,满足不同开发需求
Qwen3-Coder并非单一模型,而是提供多种尺寸版本,此次开源的是其中性能最强的变体。其参数量远超Qwen3的2350亿,略低于Kimi K2的1万亿。阿里官方表示,借助Qwen3-Coder,初级开发者也能在一天内完成资深程序员一周的工作量,甚至能在短短5分钟内生成一个完整的品牌官网。
此外,Qwen团队还同步开源了一款基于Gemini Code分叉而来的智能体编程命令行工具——Qwen Code。该工具经过定制优化,支持函数调用协议,能更高效地发挥Qwen3-Coder在智能体编程任务中的潜力。
模型已上线百炼平台,API费用透明
目前,Qwen3-Coder已在阿里云旗下的大模型服务平台百炼上线,提供API调用服务。其计费方式采用阶梯式定价,输入token在256K~1M区间时,费用为6美元/百万token,输出则为60美元/百万token。相较之下,Claude Sonnet 4的输入输出价格分别为3美元/百万token和15美元/百万token,与Qwen3-Coder 128K~256K区间的价格持平。
用户也可以通过Qwen Chat网页版免费体验该模型,4800亿参数版本已发布在Hugging Face、魔搭等开源平台,支持下载和本地部署。
海外开发者抢先体验,反馈积极
在Qwen团队正式发布前,Qwen3-Coder已在Qwen Chat官网悄然上线,不少海外开发者抢先测试并分享了使用案例。例如,有网友让其生成一个Wordle猜词游戏,Qwen3-Coder不仅快速输出了完整的网页代码,还在UI设计和动画表现上令人惊喜。
此外,Qwen3-Coder还被用于开发找不同小游戏、中英文术语库以及3D HTML旋转立方体展示台等项目,均表现出色。尽管在部分任务中未完全遵循用户指定的技术栈(如PHP+MySQL),但其生成结果在功能演示和原型开发方面已足够优秀。
强化学习训练加持,模型能力更上一层楼
根据Qwen团队发布的技术博客,Qwen3-Coder在训练过程中采用了7.5万亿token的训练数据,其中70%为代码数据,这使其在编程能力方面尤为突出,同时保留了通用语言理解和数学推理能力。
在上下文处理方面,Qwen3-Coder原生支持256K长度,并通过YaRN技术扩展至1M,适用于复杂的智能体编程场景。其上一代模型Qwen2.5-Coder则被用于清洗和重写合成数据,进一步提升数据质量。
后训练阶段,Qwen团队引入了长视距强化学习机制,并在超过20000个独立环境中并行运行任务,大幅提升了模型在现实编程任务中的执行成功率。在SWE-Bench Verified测试中,Qwen3-Coder表现突出,成为当前开源模型中的佼佼者。
开发者工具生态逐步完善
除了Qwen3-Coder本身,Qwen Code作为配套的命令行工具也已开源,基于Gemini CLI开发,增强了代码解析与工具调用能力。此外,开发者还可以在Dashscope平台上接入Claude Code,与Qwen3-Coder协同编程,进一步拓展开发可能性。
展望未来:更多模型尺寸即将发布,探索智能体自我进化
随着Cursor等平台停止对Claude等模型的支持,Qwen3-Coder的开源为国内开发者提供了强有力的替代方案。Qwen团队表示,未来还将推出更多尺寸的Qwen3-Coder模型,以平衡部署成本与性能表现。
同时,团队也在探索编程智能体的自我提升能力,希望模型能够在不断实践中实现能力的持续进化,从而更高效地承担软件工程中的复杂与重复性任务,进一步释放人类开发者的工作潜力。
##
本文来源: