在2024年9月10日,NVIDIA宣布了其新一代AI服务器“Vera Rubin NVL144”,该服务器专为AI训练和推理设计,性能和规模都有显著提升。每个机架配备了36颗Vera CPU和144颗Rubin GPU,同时搭载了1.4PB/s的HBM4内存带宽和高达75TB的存储空间,为处理大规模AI任务提供了强大支持。
在NVFP4精度下,Vera Rubin NVL144的算力达到了惊人的3.5 EFlops,相当于每秒350亿亿次运算,相比上一代GB300 NVL72性能提升了3.3倍。这一性能跃升将极大推动深度学习、自然语言处理等AI领域的进步。
此外,NVIDIA还推出了“Vera Rubin NVL144 CPX”版本,新增了72颗Rubin CPX芯片,使得单个机架的配置达到了144颗GPU与36颗CPU的组合。该版本还配备了1.7PB/s的HBM4内存带宽、100TB高速存储,并支持Quantum-X800 InfiniBand或Spectrum-X以太网,搭配ConnectX-9 NIC网卡,整体性能更加稳定高效。
在相同精度下,Vera Rubin NVL144 CPX的算力进一步提升至8 EFlops,即每秒800亿亿次运算,相比GB300 NVL72提升了7.5倍。NVIDIA还表示,用户可将两台服务器组合使用,实现算力和配置的翻倍,满足更高要求的AI计算任务。
值得一提的是,NVIDIA强调这种高性能AI服务器的投资回报率极高,每投入1亿美元即可带来高达50亿美元的回报,展现出其在AI基础设施领域的巨大商业潜力。
根据NVIDIA最新公布的路线图,Rubin GPU及相关系统预计将在2026年底正式发布,2027年推出升级版Rubin Ultra,而2028年则将迎来全新一代Feynman GPU,继续与Vera CPU协同工作,推动AI计算的持续演进。
NVIDIA AI服务器, Vera Rubin NVL144, Rubin GPU, AI训练推理, 算力性能提升
本文来源: