(由多段落组成):
近年来,人工智能算力需求的迅猛增长让英伟达一度站上行业巅峰,成为AI芯片领域的“霸主”。然而,随着市场格局悄然生变,这种单极主导的局面正面临前所未有的挑战。自2023年10月29日以来,英伟达市值在短短一个月内蒸发超7000亿美元(约合人民币5万亿元),资本市场对其“不可替代”的信仰开始动摇。“天下苦英伟达久矣”这句曾被当作玩笑的话,如今正演变为一场产业变革的情绪前奏。
这场转折的关键推手并非传统对手,而是长期低调布局的谷歌。其自主研发的TPU(张量处理器)路线逐渐从幕后走向台前,尤其在全球最大AI基础设施投入方之一Meta传出将从2027年起采购数十亿美元谷歌TPU的消息后,行业震动加剧。尽管这笔订单尚处于洽谈阶段,但其象征意义重大——它标志着头部科技企业对谷歌AI芯片体系的认可,也意味着专用芯片路线正在获得主流背书。
面对来势汹汹的竞争者,英伟达迅速反击。公司于北京时间11月26日公开强调:“我们仍领先业界一代”,并重申自身是目前唯一能运行所有AI模型、支持全场景计算的平台。依托CUDA生态和GPU出色的通用性,英伟达依然掌握着最广泛的开发者资源与技术护城河。不过,行业的关注焦点已悄然转移:从单纯的算力性能转向能效比与系统级优化。尤其是在大模型训练成本高企的背景下,能耗已成为制约扩展的核心瓶颈。
在此趋势下,谷歌TPU的优势愈发凸显。作为专为深度学习任务设计的ASIC芯片,TPU通过牺牲部分通用性,换取了更高的能效和更低的成本。数据显示,最新一代Ironwood TPU的能效比相较初代提升了30倍;而Gemini系列大模型全程基于TPU训练的事实,进一步验证了该架构的实际可行性。与此同时,OpenAI、Anthropic等明星AI公司也开始采用或计划采用TPU进行部分训练,理由正是“性能与成本之间的最佳平衡”。
更值得关注的是,一个围绕定制化AI芯片的新势力联盟正在崛起。Meta、亚马逊、微软、阿里、百度等云厂商纷纷加大自研芯片投入,博通、寒武纪以及国产GPU新锐如壁仞、沐曦、摩尔线程、燧原科技等也在加速布局。这些企业聚焦特定应用场景,打造高效率、低功耗的专用解决方案,形成对英伟达通用GPU路线的有力补充甚至替代。
与此同时,“超节点”(SuperPod)架构正成为新一代AI基础设施的核心形态。过去依赖单卡性能的竞争模式,正在被大规模集群协同所取代。谷歌第七代TPU Ironwood已实现9216颗芯片互联的超节点规模,峰值性能达4614TFLOPS;华为推出支持上万张昇腾卡的Atlas 950/960 SuperPoD;阿里云发布磐久128超节点服务器;百度昆仑芯也在百舸5.0中完成量产部署。国产厂商如曦智科技联合壁仞推出光互连超节点LightSphereX,燧原、沐曦、摩尔线程亦纷纷推出高带宽互联方案,推动中国在系统级算力整合方面快速追赶。
谷歌还创新性地推出“硬件即服务”(HaaS)模式,将TPU设备部署至合作伙伴数据中心,并保留所有权,按使用量分成。这一策略有效降低了中小云厂商的资本支出门槛,被华泰证券称为“游击式渗透”,极具市场侵略性。结合TPU+OCS网络+Gemini模型+云服务的全栈整合能力,谷歌正构建从底层芯片到上层应用的闭环生态,实现端到端优化。
分析指出,虽然英伟达短期内仍难以被完全取代——其CUDA生态、通用算力优势和全球开发者基础仍是坚固壁垒——但产业风向已经转变。当Meta认真考虑把数十亿美元投向竞争对手,当谷歌用TPU训练出顶尖模型,原有的技术垄断结构已出现细微裂痕。而这些裂缝,往往是巨变的起点。
未来AI算力的竞争,不再是单一芯片性能的比拼,而是系统效率、能效比、集群交付能力和生态整合力的综合较量。中美之间的AI竞赛,也正从“拼显卡”迈向“拼基建”。正如华龙证券所言,中国正通过集群建设、开源生态与工程化落地实现弯道超车。在这个新周期里,“够用、便宜、可规模化”将成为决定胜负的关键要素。
AI芯片, 英伟达, 谷歌TPU, 超节点, 能效比
本文来源:
iFeng科技【阅读原文】

