OpenAI时隔六年再次开源语言模型,引发行业热议
在沉寂多年后,OpenAI于近日正式发布了其开源语言模型gpt-oss-120b和gpt-oss-20b。这是自2019年GPT-2以来,OpenAI首次重新回归开源语言模型的行列,引发了业界广泛关注。此次推出的模型采用了MoE(Mixture of Experts)架构,与当前主流的DeepSeek等模型设计相似,强调高效部署与推理性能。
高效部署与轻量化运行成亮点
OpenAI此次开源的gpt-oss系列模型在部署效率方面表现尤为突出。其中,gpt-oss-120b能够在单块80GB GPU上高效运行,而gpt-oss-20b仅需16GB内存,即可在边缘设备上实现本地运行,为端侧AI应用提供了新的模型选择。两款模型均采用MXFP4原生量化技术,其中120b版本在H100 GPU上经过210万卡时训练完成,20b版本的训练资源消耗约为其十分之一。
在多项基准测试中,gpt-oss-120b的表现接近OpenAI o4-mini,而gpt-oss-20b则与o3-mini相当。其在工具调用、小样本学习、函数调用等方面也展现出较强能力,尤其适合Agent场景下的应用。
支持多种部署平台与推理场景
gpt-oss系列模型已与OpenAI的Responses API兼容,适用于Agent工作流。它们具备良好的指令遵循能力、网页搜索、Python代码执行等工具使用能力,同时支持调整推理长度,满足不同场景需求。目前已有Azure、Hugging Face、AWS、Ollama等至少14个平台宣布支持这两款模型。
在硬件适配方面,英伟达、AMD、Cerebras和Groq等芯片厂商也迅速响应。其中,Cerebras更是将gpt-oss-120b的推理速度提升至每秒3000 tokens,创下OpenAI模型的新纪录。此外,搭载M3 Pro芯片的Mac用户也已实现本地部署,推理速度接近每秒24 tokens。
开源不彻底引争议,社区质疑技术细节未公开
尽管OpenAI此次开源受到部分开发者欢迎,但也引发了一些争议。有开发者指出,虽然模型权重已公开,但训练过程、数据来源、强化学习方法等关键信息并未公开,导致无法完全复现模型。此外,OpenAI在发布的基准测试中也未将gpt-oss系列与当前主流的开源模型如DeepSeek、Qwen、Kimi等进行对比,也未与闭源模型如Claude、Gemini等进行性能对垒,引发外界对其实力的质疑。
技术细节解析:MoE架构与高效注意力机制
根据OpenAI官方博客介绍,gpt-oss系列模型采用MoE架构,旨在提升推理效率和部署灵活性。gpt-oss-120b每个token激活51亿参数,gpt-oss-20b激活36亿参数,分别拥有1170亿和210亿总参数。该模型结合了密集与局部带状稀疏注意力机制,类似于GPT-3架构。
此外,gpt-oss系列还使用了分组多查询注意力机制(每组8个头),并引入旋转位置编码(RoPE),支持高达128k的上下文长度。训练数据以英文为主,聚焦STEM、编程和常识类,分词器也已同步开源。
推理能力与性能表现优异
在后训练阶段,gpt-oss系列模型采用了监督微调(SFT)和强化学习(RL)流程,与OpenAI o4-mini类似。该模型支持低、中、高三种推理强度设置,开发者可通过系统提示灵活调整推理策略。
在基准测试中,gpt-oss-120b在Codeforces编程竞赛、MMLU通用知识测试、TauBench工具调用等任务中表现优异,接近甚至超越了o4-mini。尤其在健康类查询(HealthBench)和竞赛数学(AIME)方面,其表现更为突出。而gpt-oss-20b虽规模较小,但在多项任务中也超越了o3-mini。
Apache 2.0许可证助力生态扩展
gpt-oss系列模型采用Apache 2.0开源许可证,为开发者和企业提供了更大的使用自由度。目前,模型已在Hugging Face上线,用户可通过OpenAI提供的体验网站免费试用。
尽管存在技术细节不透明的问题,但OpenAI此次开源无疑将推动更多企业和开发者尝试其模型,尤其是在边缘计算、端侧AI和本地部署等场景中具有广泛的应用潜力。
结语:开源社区能否从中获益仍需观察
此次OpenAI时隔六年再度开源语言模型,正值中国大模型厂商推动全球开源浪潮之际。OpenAI此举被视为对“封闭”质疑的一种回应。然而,由于其开源并不彻底,开源社区短期内可能难以从中获得关键技术借鉴。
未来,gpt-oss系列是否能在实际应用中真正发挥其性能优势,以及是否能推动更多模型开源,仍有待进一步观察。无论如何,OpenAI的这次动作无疑为AI开源生态注入了新的活力。
OpenAI开源模型,gpt-oss-120b,gpt-oss-20b,MoE架构,推理速度
本文来源: