英伟达CEO黄仁勋CES前演讲核心观点 - 英伟达CEO黄仁勋在CES开幕前发表演讲,发布多款与物理AI相关的开源模型,并首次详细披露新一代芯片平台Rubin的性能数据[1] - 演讲指出AI和计算架构正同时发生双重变革,AI本身既是应用又是新平台,软件开发范式正从编写代码转向训练模型[6] - 公司认为AI发展的下一站是进入物理世界,并预测自动驾驶汽车的转折点可能正在此时发生[9][12] 行业变革与AI平台 - 计算机行业每10到15年经历一次平台变革,但当前AI和计算架构正同时发生双重变革[6] - AI本身既是应用又是新平台,开发者将在其上构建更多应用[6] - 软件开发范式被彻底颠覆:从编写代码转向训练模型,从预编译执行转向实时生成[6] - 加速计算和人工智能正在彻底重塑计算领域的每个层面[7] - 过去十年价值约10万亿美元的计算基础设施正在进行现代化改造,每年还有数千亿美元的风投资金涌入该领域[7] - 全球100万亿美元的产业正在将研发预算从传统方法转向人工智能[7] - 去年行业最重要的改变之一是开源模型真正起飞,中国的DeepSeek R1等模型激活了全球性的开源运动[7] 物理AI与自动驾驶 - 物理AI是演讲的重中之重,英伟达已为此工作8年,其ChatGPT时刻即将到来[1][9] - 核心挑战在于让AI获得对物理世界的“常识”,如物体恒存性、因果性、摩擦力等[9] - 英伟达建立了一个包含训练、模拟和运行三台计算机的系统,并使用基于物理定律的合成数据来训练AI[9] - 仿真是英伟达几乎所有物理AI工作的核心,推动AI从对话者转变为现实世界的行动者[12] - 自动驾驶被视作最被看好的落地场景,未来十年世界上很大一部分汽车将是自动驾驶或高度自动驾驶的[12] - 英伟达推出开源推理VLA模型Alpamayo,包含开源AI模型、仿真工具和数据集,以加速安全的自动驾驶车辆开发[16] - 英伟达DRIVE AV软件将用于梅赛德斯奔驰车辆,第一辆AV自动驾驶汽车将于2025年第一季度在美国上路,随后进入欧洲和亚洲[16] - 公司将继续更新版本,并扩大合作建造L4 Robotaxi的生态系统[16] 工业制造与机器人 - 工业制造是物理AI的另一核心战场,英伟达宣布与西门子深化合作,将其物理AI模型、Omniverse仿真平台集成至西门子的工业软件组合[16] - 合作覆盖从芯片设计、工厂模拟到生产运营的全生命周期,公司认为正站在一场新工业革命的开端[16] - 物理AI将赋能芯片设计、生产线自动化乃至整个数字孪生系统,实现“在计算机中设计、在计算机中制造”[16] - 机器人系统的下一段征程是不同尺寸的机器人,公司推出了多个与机器人相关的开源模型和开发框架[17] - 新推出的模型包括Cosmos Transfer 2.5和Cosmos Predict 2.5世界模型、面向智能机器人的推理视觉语言模型Isaac GR00T N1.6等[17] Rubin芯片平台性能 - Rubin平台包含六款新芯片:Vera CPU、Rubin GPU、NVLink 6交换机芯片、ConnectX-9 Spectrum-X超级网卡芯片、BlueField-4 DPU、Spectrum-6以太网交换机芯片[18] - Rubin GPU的NVFP4(4位浮点数格式)推理算力为50 PFLOPS,是Blackwell的5倍;NVFP4训练算力为35 PFLOPS,是Blackwell的3.5倍[20] - Rubin GPU的HBM4内存带宽为22 TB/s,是Blackwell的2.8倍;晶体管数量为3360亿个,是Blackwell的1.6倍[20] - 与Blackwell平台相比,Rubin平台通过软硬件协同设计,将推理token成本降低10倍,将训练MoE模型所需的GPU数量减少4倍[20] - ConnectX-9 Spectrum-X超级网卡芯片有230亿个晶体管,支持800 GB/s以太网[21] - BlueField-4 DPU有1260亿个晶体管,其网络能力、计算能力和内存带宽是上一代BlueField-3的2倍、6倍、3倍[21] - Spectrum-X以太网共封装光学器件有3520亿个晶体管,可支持102.4 Tb/s横向扩展交换基础设施[21] 系统级产品与生产计划 - 公司推出了推理上下文内存存储平台,作为一种新型的AI存储基础设施,并由BlueField-4 DPU提供支持[22] - BlueField-4 DPU可为AI基础设施提供单一、可信的控制点,以便配置、隔离和运营大规模AI环境[22] - 新一代NVLink72是一种机架级扩展系统,通过整合多个CPU、GPU等形成单一较高效率的加速单元[22] - Vera Rubin NVL72的NVFP4推理和训练算力分别是3.6 EFLOPS、2.5 EFLOPS,分别是Blackwell的5倍和3.5倍[23] - Vera Rubin NVL72的HBM4内存带宽为1.6 PB/s,是Blackwell的2.8倍;晶体管数量为220万亿个,是Blackwell的1.7倍[23] - 相比使用Blackwell NVL72,使用Rubin NVLink72训练模型所需GPU数量是前者的1/4,思考输出的token数量则是10倍[23] - DGX SuperPOD由一个超节点整合8个Rubin NVL72机架中的576颗GPU,产品将于2025年下半年上市[23] - Rubin平台产品已全面投入生产,基于该平台的产品则将于2026年下半年由合作伙伴推出[23] - 首批使用Rubin的云服务提供商包括AWS、谷歌云、微软等,Anthropic、OpenAI、xAI等AI实验室也将使用其算力[23]
直击CES | 黄仁勋新年第一场发布:物理AI的ChatGPT时刻即将到来