英伟达在CES 2026发布Rubin平台:算力达50千万亿次,AI性能再提速

打印派   2026-01-06 12:10:05

英伟达今日在CES 2026舞台上正式推出全新Rubin计算架构,将其定位为公司迄今最先进的人工智能硬件平台。首席执行官黄仁勋表示,Rubin已进入全面量产阶段,并将在下半年进一步扩大规模,彰显了英伟达对市场需求的信心。

黄仁勋将Rubin描述为对AI工作负载(尤其是大规模训练与长程推理任务)爆炸式增长的直接响应。他向现场观众强调,AI计算能力必须以前所未有的速度持续提升。Rubin架构接替了英伟达的Blackwell架构(后者此前已取代Hopper与Lovelace架构),延续了该公司推动其成为全球最高市值企业的快速硬件迭代节奏。

为智能体AI而生
Rubin以天文学家薇拉·鲁宾命名,采用六芯片架构设计以协同工作。其核心是Rubin GPU,并配有互联与存储组件的重大升级。英伟达重新设计了NVLink以解决大型集群中的通信瓶颈,同时扩展了BlueField数据处理平台以应对先进AI系统日益增长的内存需求。新加入的Vera CPU专门针对智能体推理工作负载设计,旨在支持能进行长期规划、情境记忆与持续行动的AI系统。

Rubin系统已规划部署至整个AI生态圈。包括Anthropic、OpenAI和亚马逊云科技在内的云服务合作伙伴计划采用该平台。英伟达同时确认,Rubin将为慧与的"蓝狮"超级计算机及劳伦斯伯克利国家实验室即将建成的"杜德纳"系统提供算力支持。

性能与能效双重飞跃
英伟达宣称Rubin相比Blackwell实现显著性能提升:内部测试显示训练性能最高提升3.5倍,推理速度最高提升5倍,峰值算力达50千万亿次。能效也大幅改善——据英伟达数据,Rubin每瓦特功耗提供的推理计算能力提升高达8倍。这些进步在全球AI基础设施对电网和数据中心预算造成压力的背景下显得尤为重要。黄仁勋此前预估全球AI基础设施支出未来五年可能达3至4万亿美元,而Rubin正是为此规模设计。

重构AI存储体系
伴随Rubin平台,英伟达发布了由BlueField-4驱动的AI原生存储方案。该推理上下文记忆存储平台旨在解决AI系统中日益突出的问题:管理海量键值缓存。随着AI智能体处理长对话与多步推理,它们产生的上下文数据无法永久存储在GPU中。新平台在保持高速访问的同时,将内存容量扩展至GPU之外。

英伟达高级总监迪昂·哈里斯指出,新型AI工作流对内存系统造成巨大压力。为此,英伟达增加了针对上下文高效扩展优化的外部存储层级。该平台采用Spectrum-X以太网和英伟达DOCA框架,在机架规模系统中共享上下文数据。据称,其令牌吞吐量与能效相比传统存储方案提升高达5倍。基于BlueField-4的系统将于2026下半年交付合作伙伴,标志着英伟达正进一步深入全栈AI基础设施领域。


0

37 0

发表评论

登陆后参与评论