黄仁勋官宣英伟达已投产 Vera Rubin:训练 AI 速度是 Blackwell 架构 3.5 倍、推理速度是其 5 倍

IT之家 1 月 6 日消息,在今天举办的 CES 2026 主题演讲中,英伟达首席执行官黄仁勋发表主题演讲,介绍了新一代“Rubin”计算架构,并将其定义为当前 AI 硬件领域的“最先进技术”,该架构已进入全面量产阶段。黄仁勋官宣英伟达已投产 Vera Rubin:训练 AI 速度是 Blackwell 架构 3.5 倍、推理速度是其 5 倍休闲区蓝鸢梦想 - Www.slyday.coMRubin 架构以天文学家薇拉・鲁宾(Vera Rubin)的名字命名,由六款协同工作的独立芯片组成。该系统的核心是 Rubin GPU,同时配备了专为“智能体推理”(Agentic Reasoning)设计的全新 Vera CPU。黄仁勋官宣英伟达已投产 Vera Rubin:训练 AI 速度是 Blackwell 架构 3.5 倍、推理速度是其 5 倍休闲区蓝鸢梦想 - Www.slyday.coM黄仁勋官宣英伟达已投产 Vera Rubin:训练 AI 速度是 Blackwell 架构 3.5 倍、推理速度是其 5 倍休闲区蓝鸢梦想 - Www.slyday.coM黄仁勋官宣英伟达已投产 Vera Rubin:训练 AI 速度是 Blackwell 架构 3.5 倍、推理速度是其 5 倍休闲区蓝鸢梦想 - Www.slyday.coM为了突破存储和连接瓶颈,英伟达在 Bluefield 和 NVLink 系统中也进行了针对性升级。英伟达 AI 基础设施解决方案高级总监迪翁・哈里斯(Dion Harris)指出,现代 AI 系统(尤其是智能体 AI 和长期任务)对 KV 缓存(Key-Value Cache)的需求给内存带来了巨大压力。为此,Rubin 引入了全新的外部连接存储层,能够更高效地扩展存储池,从而优化工作流。在性能表现方面,IT之家援引博文介绍,Rubin 架构相较于前代产品实现了显著跨越。根据英伟达官方测试数据,Rubin 在 AI 模型训练任务上的运行速度是 Blackwell 架构的 3.5 倍;在推理任务中,其速度更是达到了前代的 5 倍,峰值运算能力高达 50 Petaflops。黄仁勋官宣英伟达已投产 Vera Rubin:训练 AI 速度是 Blackwell 架构 3.5 倍、推理速度是其 5 倍休闲区蓝鸢梦想 - Www.slyday.coM此外,新平台的能效表现同样优异,其每瓦推理算力提升了 8 倍。这一性能飞跃将为日益复杂的 AI 模型提供强大的算力支撑。Rubin 芯片目前已确定将被几乎所有主流云服务提供商采用,包括与英伟达保持深度合作的 Anthropic、OpenAI 以及亚马逊云科技(AWS)。此外,惠普企业(HPE)的 Blue Lion 超级计算机以及劳伦斯伯克利国家实验室即将推出的 Doudna 超级计算机也将部署 Rubin 系统。黄仁勋此前曾在财报电话会议上预测,未来五年内,全球在 AI 基础设施领域的投入将达到 3 万亿至 4 万亿美元。CES 2026 消费电子展专题
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,蓝鸢梦想所有文章均包含本声明。

相关推荐

  • 友情链接:
  • PHPCMSX
  • 智慧景区
  • 微信扫一扫

    微信扫一扫
    返回顶部

    显示

    忘记密码?

    显示

    显示

    获取验证码

    Close