标签:模型优化
OpenAI正式开源了全新的gpt-oss系列模型,其中包括两款面向不同应用场景的AI模型:gpt-oss-120b和gpt-oss-20b。
该系列模型不仅具备强大的推理能力,还针对不同硬件环境进行了优化,进一步提升了模型的实用性与可部署性。 gpt-oss系列模型特性解析 gpt-oss-120b是一款面向高性能计算场景的AI模型,拥有高达1170亿参数,其中5.1亿为活跃参数。该模型专为单个H100 GPU进行了优化,适用于需要大规模推理能力的复杂任务,如大型语言理解、代码生成和多步骤逻辑推理。 而gpt-oss-20b则更侧重于低延迟和本地化部署需求,参数总量为210亿,活跃参数约为3.6亿。它适合在资源受限的设备上运行,例如边缘计算设备或轻量级服务器,为开发者提供高...
ChatGPT后训练方法被OpenAI前高管公开,PPT全网传播
近日,OpenAI的两位前高管John Schulman和Barret Zoph在离开公司后,将ChatGPT的后训练方法整理成PPT并公开发布。这两位曾在OpenAI担任后训练研究的重要角色,因此他们对这一领域的见解备受关注。 背景介绍 John Schulman是OpenAI的联合创始人之一,曾负责后训练工作;Barret Zoph则曾任后训练研究副总裁。他们在斯坦福大学进行了一场关于后训练及ChatGPT开发经验的演讲,并通过社交媒体分享了PPT。遗憾的是,演讲视频未能录制下来,但观众们纷纷点赞收藏,证明了其的高质量。 后训练阶段详解 后训练是模型开发的最后一...