当地时间1月5日,英伟达(NVDA.O)在CES 2026的发布活动上披露,下一代数据中心计算平台“Vera Rubin”已推进至量产阶段,面向数据中心的整套系统将由合作伙伴在2026年下半年开始推出,云厂商与远程算力服务商将率先导入新一代硬件并开放试用与部署。
与过去外界更熟悉的“单颗GPU迭代”不同,Rubin被英伟达定义为一套极端协同设计的平台:它由Vera CPU、Rubin GPU以及新一代互连与网络、数据处理与以太网交换等关键芯片共同构成,目标是把计算、网络与数据通路在机架尺度上作为一个整体来优化,以适配大模型训练与推理对带宽、延迟与供电效率的同步拉升。
英伟达在此次披露中确认,Rubin平台相关的6颗芯片已经从制造合作伙伴处返回,并完成了若干里程碑测试,意味着产品正沿着面向客户部署的时间表前进。与此前市场担心新架构落地周期拉长的情绪相比,这一表态把焦点从“是否能按时做出来”拉回到“何时能形成规模供给”与“云端算力何时真正切换代际”。
在性能指标上,英伟达给出的核心口径是:Rubin相对Blackwell在训练侧与运行AI软件侧分别实现显著跃升,同时把系统级运行成本压到更低水平,原因在于以更少组件达到相同或更强的吞吐能力。
该公司同时强调,平台化协同带来的收益将体现在推理阶段的单位token成本与长上下文场景的效率上。这也是当下大模型从“参数规模竞赛”转向“推理与代理能力竞赛”时,数据中心最敏感的成本锚点。
配套系统形态上,英伟达展示了以NVL为代表的机架级方案:旗舰系统以大量GPU与CPU组合为基础,可进一步扩展为更大规模的“pods”形态,以适配更高强度的训练与推理集群需求。
围绕互连、以太网与光互连等环节,英伟达同步强调了新一代网络与机架集成方式对装配、维护与能效的影响,意图把“可用算力”更快转化为“可交付算力”。
在客户侧,英伟达点名多家头部云与算力服务商将导入Rubin系统,并将其作为2026年下半年新一轮AI基础设施升级的关键硬件底座。相关云厂商也在同一时间窗口释放“为Rubin规模化部署做准备”的信号,显示供给侧与需求侧正在围绕新平台形成更明确的切换路径:先以试用与小规模上线验证,再以标准化机架方案快速扩容。
随着Rubin进入量产窗口期,下一阶段最关键的现实变量集中在三个层面:合作伙伴在2H26的实际出货节奏能否连续爬坡、云厂商是否会在更多区域数据中心加速切换代际,以及系统级宣称的单位token成本下降能否在真实业务负载与软件栈条件下兑现。
对产业链而言,这些答案将直接决定AI算力供给从“紧平衡”走向“更快扩张”的速度,也将决定新一轮数据中心资本开支在2026年下半年的发力强度与方向。