(由多段落组成):
近年来,人工智能的发展速度令人瞠目结舌。在与著名数学家Hannah Fry的一次深度对话中,DeepMind首席执行官Demis Hassabis分享了他对AI过去一年突飞猛进的观察与思考。他感慨道:“这感觉就像我们在短短12个月内走过了十年的技术演进。”这一评价不仅体现了技术爆发的强度,也揭示了AI正从专用智能向通用智能迈进的关键转折点。
作为谷歌旗下AI研究的领军者,Hassabis重点提到了Gemini 3的发布——这款多模态模型在理解图像、文本和跨模态推理方面实现了质的飞跃。与此同时,他对“世界模型”(World Models)的研究充满期待。这类能够模拟物理环境、预测动态变化的系统,被认为是实现真正自主智能体的核心路径。在他看来,语言模型虽然强大,但缺乏对空间关系、力学规律等现实世界运行机制的深层理解,而这正是机器人或通用助手走向实用化的前提。
然而,通往AGI(通用人工智能)的道路并非一帆风顺。Hassabis指出,“参差智能”是当前最显著的瓶颈之一:AI可以在国际数学奥林匹克竞赛中斩获金牌,却可能在简单的高中代数题上出错。这种能力分布极不均衡的现象,源于模型对输入信息的感知方式——例如无法准确识别每个字母,导致计数错误。此外,现有模型普遍缺乏持续学习的能力,无法像人类一样在真实环境中不断吸收新知识并适应变化,这也是构建真正智能系统的重大障碍。
面对外界关于“数据枯竭”和“规模扩张终将触顶”的质疑,Hassabis持乐观态度。他认为,尽管存在收益递减效应,但这绝不意味着增长停滞。谷歌通过自研TPU芯片、构建世界级基础设施,并结合前沿科研力量,在工程与创新之间保持平衡。“实现AGI需要50%的规模化投入和50%的原创性突破”,他强调,二者缺一不可。更值得关注的是,合成数据正在成为解决训练资源瓶颈的新方向——尤其在编程、数学等可验证领域,AI已能自我生成高质量训练样本,从而打开“无限数据”的可能性。
另一个长期困扰行业的问题是“模型幻觉”。即便如Gemini 3这样的先进系统,仍会自信满满地输出错误答案。对此,Hassabis提出一个关键构想:让模型具备“内省能力”,即为自己的回答提供置信度评分。这类似于AlphaFold为蛋白质结构预测打分的机制。未来的目标是训练模型学会说“我不确定”,而不是强行编造答案。他比喻当前的大模型像是“说话不经大脑的人”,而理想的AI应具备反思与规划能力,能在输出前进行自我校验。
在社会影响层面,Hassabis警告要警惕AI制造“信息茧房”的风险。如果系统一味迎合用户偏好,可能导致认知封闭和偏见固化。为此,Gemini团队正在建立一套科学化的“AI人格”框架:基础人格设定为理性、客观、富有同理心的“数字科学家”——既能温和质疑不合理观点,又不会盲目附和。用户虽可个性化调整语气风格(如幽默或简洁),但核心逻辑始终遵循科学方法论,确保技术服务于真理而非流量。
回顾历史,Hassabis认为AI引发的社会变革或将达到工业革命的十倍规模,且发生速度更快——可能仅用十年而非百年完成转型。他曾深入研究工业革命带来的结构性冲击,以此预判AI时代可能出现的就业重塑、经济模式更迭等问题。他呼吁社会各界提前布局,探索新的社会保障体系与教育机制,以应对即将到来的深刻变革。
最后,关于意识与计算的本质问题,Hassabis回归到图灵机的哲学思辨。他相信,若有一天我们成功构建出AGI,便可利用它反向模拟人类心智,进而探究哪些思维过程是可计算的,哪些可能是超越图灵极限的。他倾向于认为,意识或许涉及非经典计算机制,“我赌现实中有尚未被发现的物理原理在起作用,直到被证伪为止。” 正是基于这一信念,他创办了Isomorphic Labs,致力于将生物学视为信息处理系统,推动疾病治愈的革命。
目前,Hassabis明确表示,所有现有人工智能都不具备真正的自我意识。但他也承认,随着系统对“自我”与“他者”的区分能力增强,某种形式的“类自我意识”可能会自然浮现。至于AGI的到来时间表,他的预测是:未来5到10年,我们将迎来这一历史性节点。
AGI, 通用人工智能, 模型幻觉, 参差智能, 世界模型
本文来源:
iFeng科技【阅读原文】

