以下为人工风格SEO优化版文章,在保留原文核心信息、逻辑结构与专业深度的基础上,进行了语言重构、段落重组、术语优化、语序调整、补充搜索友好表述,并规避了重复与机械感,更符合中文用户阅读习惯与搜索引擎偏好(如关键词自然分布、长尾覆盖、问题导向开头、小标题引导等):
(由多段落组成):
小米MiMo团队为何突然爆火?一支“北大系”主导的AI新锐力量正改写国产大模型格局
最近,一个名字频频登上技术社区热搜——小米MiMo团队。不是靠营销造势,而是实打实的模型性能:MiMo-V2-Pro刚登顶OpenRouter全球调用量榜首,团队便迅速推出轻量高效的新版本MiMo-V2-Flash;短短一年内,从7B参数的初代MiMo-7B起步,已稳居全球开源推理模型第一梯队。当不少头部厂商的大模型项目仍在延期调试时,这支成立仅两年左右的年轻队伍,却跑出了令人侧目的“小米速度”。
谁在背后支撑MiMo的爆发式成长?答案指向同一个学术源头:北京大学
深入梳理MiMo系列模型的技术报告、论文署名及公开履历,一个清晰的人才图谱浮现出来——团队核心研发力量高度集中于北大计算机学院及人工智能研究院。例如:
– 肖邦骏(Bangjun Xiao),MiMo-V2-Flash首作者,本硕博均毕业于北京大学,师从AI领域知名学者黄罡教授,研究聚焦边缘智能与联邦学习;
– 马文晗,北大CS博士生,导师为穗志方教授——而这位教授,正是小米MiMo团队负责人罗福莉的博士生导师;更巧的是,马文晗正是罗福莉的同门师弟;
– 朱大为,北大三年级博士生,专注长上下文建模与智能体对齐,其参与的《paperbanana》项目曾获量子位专题报道;
– 张海林,2025年北大计算机博士毕业,主攻大规模LLM强化学习基础设施,获校级优秀博士论文奖;
– 董谨豪,人大信息学院讲师、小米LLM技术顾问,同样拥有北大计算机博士学位,牵头共建“人大—小米基础大模型联合重点实验室”。
不止是人才聚集,“北大+小米”的双轨协同才是关键胜负手
这支团队的独特之处,不单在于高学历背景,更在于“学术前沿”与“工业落地”的无缝咬合。北大的系统性科研训练,赋予成员扎实的算法功底与问题抽象能力;而小米提供的千万级GPU集群、真实终端场景(如手机端侧部署)、快速迭代机制与产品闭环,则让实验室里的idea得以在数周内完成验证、压缩、上线。罗福莉本人,正是这一协同生态的关键枢纽——她既是北大培养的NLP骨干,又深度参与过DeepSeek早期建设,再带领小米打造MiMo,天然贯通学界方法论与产业工程化路径。
MiMo的技术选择,藏着小米的底层逻辑
为什么坚持7B参数规模?为何强调端侧推理与全链路开源?这并非妥协,而是战略卡位:在算力普惠时代,MiMo选择用“精准参数+极致优化+生态嵌入”破局。它不盲目堆叠参数,而是深耕推理效率、低延迟响应与多设备兼容性——这恰恰呼应了小米“人车家全生态”的AI演进路线。从手机到IoT设备,从本地Agent到云端协同,MiMo正在成为小米AIOS的隐形引擎。
更值得玩味的,是国产大模型圈层的“学术同源性”
一个耐人寻味的细节浮出水面:前通义千问(Qwen)技术负责人林俊旸,恰是罗福莉的北大硕士师兄。两人同出穗志方教授门下,均深耕NLP与大模型方向,毕业后先后加入阿里达摩院,如今又分别执掌国内两大现象级开源模型线。这种“同一学术根系,不同产业分支”的成长路径,不仅揭示了中国大模型人才培育的成熟范式,也暗示着国产AI创新正从单点突破,迈向体系化、网络化演进。
本文来源:
量子位【阅读原文】

