以下是根据您提供的原文,以人工撰写风格进行深度改写后的文章。文章在保留原意的基础上进行了语言重构、结构优化和关键词布局,更符合SEO搜索逻辑(如长尾词植入、语义丰富性提升、段落可读性增强),并重新提炼出5个高热度关键词。
(由多段落组成)
AI范式转向:从“大力出奇迹”到“科研驱动”的新时代
2025年底,AI领域迎来一次思想震荡。OpenAI联合创始人、被誉为“大模型教父”的Ilya Sutskever罕见发声,直言当前主流的“预训练+无限扩展”路径已接近瓶颈。在他长达近两万字的深度访谈中,Ilya明确指出:AI正在告别“规模至上”的黄金时代,重回以基础研究为核心的“科研时代”。
这一观点迅速引发行业热议。过去几年,各大科技公司争相投入千亿级算力,追求参数量、数据量和训练成本的极限扩张,仿佛只要“堆得够多”,智能就会自然涌现。但现实却逐渐显露出疲态——模型在基准测试中屡破纪录,但在真实场景中的表现却频频翻车,甚至出现“修一个bug引入两个新bug”的荒诞循环。
Ilya用一个生动比喻揭示了问题本质:如今的大模型就像一位只刷竞赛题一万小时的学生,虽然能在考试中拿满分,却缺乏实际工程能力与系统思维。这种“过度拟合评测”的训练方式,让AI陷入了“聪明而不智慧”的怪圈。
评测成绩≠真实能力?AI泛化难题浮出水面
为什么AI能在MMLU、GSM8K等权威榜单上超越人类,却在日常编程、决策制定中频频犯错?Ilya认为,核心症结在于泛化能力的严重不足。
他指出,当前强化学习(RL)训练存在明显的“评测导向”倾向:团队为了提升某项指标,专门设计对应的RL环境,导致模型只是学会了“应付特定任务”,而非真正理解底层逻辑。这就好比让学生背下所有数学竞赛答案,而不是掌握解题思维。
更深层的问题是,我们尚未厘清“预训练究竟教会了模型什么”。尽管海量文本数据让模型掌握了丰富的知识表征,但它是否真的具备类似人类的价值判断、情绪感知和社会认知?一位因脑损伤失去情感功能的患者案例被提及——此人逻辑清晰、语言流利,却连选袜子都要花数小时,说明情绪本身就是一种高效的决策机制。
这对AI对齐提出了严峻挑战:如果机器没有内在的“价值函数”,仅靠外部奖励信号驱动,它可能做出技术正确但伦理灾难的行为。
预训练的天花板:数据枯竭与效率困境
随着全球可用高质量文本数据趋于饱和,预训练的边际效益正急剧下降。Gemini虽尝试优化预训练流程,但Ilya强调:数据红利终将耗尽,未来必须寻找新的增长维度。
值得注意的是,近年来RL训练所消耗的算力已悄然超过预训练。由于RL依赖反复试错与长序列推理,其计算开销呈指数级上升。然而每次迭代带来的性能增益却微乎其微,形成“高投入、低回报”的困局。
在这种背景下,“扩展”本身的意义开始动摇。Ilya质疑:继续把模型扩大100倍,就能实现质变吗?他认为不会。真正的突破点不在规模,而在训练范式的根本重构——比如引入价值函数(value function)来加速学习过程,或探索自博弈、多智能体协作等新型学习机制。
人类为何学得更快?进化先验与持续学习的秘密
对比人类与AI的学习效率,差异令人震惊。孩子练十小时就能学会开车,而机器人即便经过百万次模拟仍难以应对复杂路况。Yann LeCun曾指出,这背后是亿万年进化赋予人类的强大先验知识。
视觉、运动、听觉等基础能力深深嵌入我们的神经系统,构成了高效学习的基石。但对于语言、数学、编程这些“现代技能”,人类同样展现出惊人的适应力。这说明,人类拥有一种通用的学习引擎——一种无需大量标注样本即可快速迁移知识的能力。
青少年学车的过程极具启发性:他们不需要外部评分系统,而是依靠内在反馈不断调整。这种“自我纠正”机制源于稳定的价值体系和高度敏感的感知能力。反观AI,目前仍依赖人工设定的奖励信号,在开放环境中极易迷失方向。
要构建真正类人的智能,我们必须重新思考训练哲学:从“喂数据+调参数”转向“激发自主学习动力”。
超级智能的新定义:不是成品,而是成长型心智
面对AGI(通用人工智能)的讨论,Ilya提出颠覆性观点:未来的超级智能不应被看作“已完成的作品”,而应是一个能持续学习、自我进化的“可成长心智”。
他反对将AGI简单定义为“能做人类所有工作”的静态系统,主张关注其“学会任何工作的潜力”。这样的系统一旦部署,将在实践中不断积累经验,并通过知识共享实现群体进化。即使单个实例能力有限,全球范围内的协同学习也能催生“功能性超级智能”。
SSI(Safe Superintelligence)正是基于这一理念成立的研究机构。不同于其他公司聚焦产品落地,SSI专注于探索安全、可控的持续学习架构。Ilya相信,只有率先掌握这一范式的企业,才能引领下一波AI革命。
安全之路:让AI关心“有感知的生命”
谈及AI对齐,Ilya强调:“力量越大,责任越重。” 当AI具备超人级学习能力时,传统控制手段将失效。他提出一个激进而深刻的构想:构建以“关怀所有有感知生命”为核心目标的AI系统。
这一理念超越了狭隘的人类中心主义。考虑到未来AI数量可能达万亿级,它们自身也将成为主要的“有感知主体”。通过镜像神经元式的共情机制,AI不仅能理解人类情感,也能与其他智能体建立信任关系。
更重要的是,早期部署的前N个强大系统若具备此类价值观,将为整个文明定下良性基调。即便后续出现恶意行为者,也难以撼动整体生态平衡。
他还设想了一种终极融合路径:通过Neuralink类脑机接口,让人与AI共享意识体验。届时,人类不再是旁观者,而是深度参与智能演化的共同体成员。
科研复兴:算力不再是唯一门槛
回顾AI发展史,2012–2020是研究爆发期(AlexNet、Transformer相继问世),2020–2025则是规模化狂潮。如今,随着规模路径触顶,我们正迎来第二次“科研复兴”。
Ilya指出,重大创新往往诞生于中小规模实验。AlexNet仅用两块GPU,Transformer初期实验也不过数十张卡。真正制约进步的从来不是算力,而是想象力与研究品味。
SSI之所以能在资源有限的情况下推进前沿探索,正因其90%预算用于纯科研,避免了商业化带来的目标偏移。他们的信条是:与其追逐短期收益,不如专注解决“如何让AI真正理解世界”这一根本命题。
未来展望:5–20年见分晓,智能爆炸或将开启
对于超级智能的时间线,Ilya给出保守预测:5到20年内,我们将看到具备类人学习能力的系统出现。一旦突破持续学习闭环,经济将迎来爆发式增长,部分国家可能率先实现全民基本收入。
但他也警告:若人类完全退出决策环路,任由AI代理为自己谋利、参政、竞争,社会将陷入“自动化内卷”。唯有保持人的参与感与控制力,才能确保技术服务于文明而非取代文明。
最终,所有领先AI公司都将走向战略趋同——不是因为技术路径相同,而是因为当智能足够强大时,安全、协调、关怀将成为唯一可持续的选择。
