(由多段落组成):
近年来,随着GPU成本逐步下降、大模型趋于标准化以及“算力即服务”(AIaaS)逐渐成为数字基础设施的一部分,市场上兴起了一种观点:未来AI产业的价值重心将从芯片制造商(如英伟达)向云服务商转移,类似于铁路时代后期利润从钢铁厂流向铁路运营商。然而,这一趋势并不像表面看起来那样确定。实际上,当前云计算在AI领域的盈利能力远未达到预期,且受到来自中国科技企业的激烈竞争压力,使得云服务的利润空间被严重压缩。
首先,现实中的云服务盈利状况并不乐观。以Oracle披露的数据中心毛利为例,即便对昂贵的GPU进行了折旧摊销处理,其数据中心业务的利润率依然偏低。考虑到GPU的生命周期仅为3到5年,而建设一个AI数据中心还需投入大量资金用于土地购置、电力供应、冷却系统、网络架构和运维团队,整体成本居高不下。因此,指望通过规模化部署AI算力来实现高额回报,目前来看仍不现实。在此背景下,英伟达作为上游核心供应商,牢牢掌握着算力定价权和供应链主导地位,而云厂商则更像是“算力搬运工”,承担高昂的资本支出与设备折旧,在激烈的市场竞争中艰难维持微薄利润。这种“上游垄断、下游分散”的产业结构,决定了主要价值仍集中在芯片端,而非云端。
其次,下游AI应用的商业化进展缓慢,进一步削弱了云服务商的议价能力。许多企业发现,实际使用AI模型所产生的token需求远低于初期预测,单个token带来的成本节约或收入增长也未能迅速兑现。多数应用场景尚处于测试阶段,尚未形成高频、稳定的商业闭环。与此同时,来自中国的AI厂商正掀起一场价格革命。以阿里巴巴推出的通义千问(Qwen)系列模型为例,其API调用价格低至每1000个输入token仅需0.003元人民币,相较OpenAI、Anthropic等国际厂商的价格低出一个数量级。这一策略不仅冲击了全球AI服务的定价体系,更迫使欧美云服务商不得不下调报价以保持竞争力。
阿里之所以能实施如此激进的低价策略,背后有多重原因:一是中国市场正处于AI生态抢占的关键期,“以量换价”是主流打法;二是中国在电力、土地、人力及基础设施部署方面的综合成本更低;三是阿里自身拥有成熟的阿里云平台,边际扩展成本极小;四是其商业模式并非依赖模型API直接盈利,而是通过绑定云存储、数据平台、企业IT服务和SaaS产品实现整体变现。换句话说,AI模型API只是吸引客户入驻生态系统的“引流入口”。相比之下,西方大模型公司多采用高溢价、高门槛的商业化路径,而中国厂商则更注重普及率和用户规模。这种战略差异,使中国企业在全球范围内形成了对AI token价格的“底部压制”。
从资本周期的角度看,当前AI基础设施的投资热潮正重演历史。回顾19世纪60年代末的铁路狂潮,当时铁路投资一度占美国GDP的7%至10%,最终因过度建设、运力闲置超过30%而引发1873年金融恐慌和长达五年的大萧条。如今,未来5到7年内全球AI数据中心的投资预计突破4万亿美元,微软、谷歌、Meta、OpenAI等巨头纷纷加码布局,陷入典型的“囚徒困境”——谁都不敢停下脚步,但集体投资又可能导致产能过剩。目前已有多个预警信号浮现:资本开支持续攀升、单位利润不断下滑、重复建设现象严重、参与者众多、下游应用盈利能力不稳定。更关键的是,服务器利用率下降、价格战加剧、融资环境趋紧等问题已初现端倪,这些正是资本周期转向的典型前兆。
综上所述,AI产业的价值并不会如部分人预期那样集中于云服务商,反而可能像铁路、互联网、智能手机等技术革命一样,最终由应用层真正释放价值。历史经验表明,基础设施的最大受益者往往是那些能够高效利用它的行业和企业:铁路成就了现代制造业与物流体系,互联网催生了电商与数字广告帝国,智能手机推动了移动应用生态的爆发。同理,在AI时代,真正的赢家将是那些深耕垂直领域、开发出高价值AI解决方案的企业软件公司、自动化工具开发商以及原生AI企业。而云服务商,尽管扮演着不可或缺的角色,却很可能只能收取“过路费”,难以获取超额利润。阿里与通义千问的低价策略,已经提前揭示了未来的图景:AI算力将逐步演变为一种廉价、标准化、可替代的基础资源,而非高利润的技术壁垒。
AI算力, 云服务商, 英伟达, 通义千问, token价格战
本文来源:
iFeng科技【阅读原文】

