Workflow
Vera CPU
icon
搜索文档
今夜无显卡,老黄引爆Rubin时代,6颗芯狂飙5倍算力
36氪· 2026-01-06 09:40
英伟达Vera Rubin AI超算平台发布 - 在CES 2026上,英伟达正式发布并宣布其下一代AI芯片架构Vera Rubin已全面投产,预计2026年下半年面世[1][3] - 该平台旨在解决AI算力规模化难题,目标是将算力变得像电力一样廉价,推动AI大爆发[8][10] Vera Rubin平台架构与性能 - 平台采用系统性设计,首次将CPU、GPU、网络、存储和安全作为一个整体来设计,核心思路是将整个数据中心变成一台AI超算[13] - 平台由六大关键组件构成:Vera CPU、Rubin GPU、NVLink 6、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet[14] - Rubin GPU搭载第三代Transformer引擎,提供50 PFLOPS的NVFP4推理算力,性能达到上一代Blackwell GPU的5倍[16][27] - 引入专为智能体推理设计的Vera CPU,采用88个自研Olympus核心,I/O带宽和能效比直接翻倍[18] - NVLink 6提供单芯片400Gb/s交换能力,单GPU带宽3.6TB/s,Rubin NVL72机架带宽达260TB/s,超过整个互联网[22] - 集成计算单元(托盘)包含2颗Vera CPU、4颗Rubin GPU、1颗BlueField-4 DPU和8颗ConnectX-9网卡,算力达100 PetaFLOPS[24] 性能提升与成本降低 - 训练性能:Rubin架构训练模型速度达Blackwell架构的3.5倍(35 petaflops)[27] - 推理性能:推理任务速度达Blackwell的5倍(最高50 petaflops),单位token推理效率提升最高可达10倍,算力成本可降至原来的1/10[1][3][32] - 内存与带宽:HBM4内存带宽提升至22 TB/s,是上一代的2.8倍;单GPU NVLink互连带宽翻倍至3.6 TB/s[27] - 规模化训练:在超大规模MoE模型训练中,所需GPU数量相比Blackwell可减少至1/4,整体能耗显著下降[3][28] - 性能提升归因于NVLink 6提升互联带宽、Vera CPU与GPU协同调度减少空转、ConnectX-9与Spectrum-6深度协同突破集群规模限制[29] DGX SuperPOD与规模化部署 - 推出新一代DGX SuperPOD,连接多个Rubin NVL72机架形成更大AI计算集群,示例配置包含8个机架共576个GPU[37][39] - Rubin NVL72系统集成72块Rubin GPU、36块Vera CPU等组件,提供统一、安全的系统,可处理数千个Agentic AI智能体及数百万token上下文[41] - 该平台旨在提供开箱即用的AI基础设施,一次性解决数百个GPU互联与管理存储的问题[41] 安全与商用计划 - Rubin是首个支持第三代机密计算(Confidential Computing)的AI超算平台,实现模型参数、推理数据、用户请求的全链路加密[46] - 平台将由AWS、Microsoft Azure、Google Cloud、Meta、OpenAI等头部厂商首批部署,2026年下半年进入大规模商用阶段,下一代主流大模型预计将运行于此架构上[47] 自动驾驶与物理AI进展 - 发布端到端自动驾驶AI系统AlphaMayo,具备显式推理能力,能从摄像头输入到车辆动作执行全流程由模型完成,演示中实现全程0接管[51][53][55] - 宣布NVIDIA DRIVE AV软件首次搭载于全新梅赛德斯-奔驰CLA,提供L2级端到端驾驶[57] - 推出针对物理AI(Physical AI)的开源全家桶,包括模型、框架及基础设施,旨在加速机器人等具身智能发展[62] - 开源模型包括:世界模型Cosmos Transfer/Predict 2.5、推理模型Cosmos Reason 2、人形机器人模型Isaac GR00T N1.6,均已上线Hugging Face[64] - 发布开源框架Isaac Lab-Arena和统一调度平台NVIDIA OSMO,以缩短机器人开发周期[64][65] 边缘计算与硬件更新 - 推出全新Jetson T4000模组,将Blackwell架构带到边缘端,算力达1200 FP4 TFLOPS,是上一代的4倍,1000台起订单价1999美元,功耗70瓦[67][68][69] - 宣布Hugging Face上的开源机器人Reachy 2和Reachy Mini已完美适配英伟达Jetson平台[67] 产业观点与未来展望 - 公司认为计算产业正同时经历从传统计算走向AI以及整个软硬件栈底层重塑两次平台级转变,AI正成为全新的应用底座[72] - 指出智能体AI(Agentic AI)之后的下一个前沿是物理AI(Physical AI)[74] - 强调仿真模拟是物理AI体系的核心,AI需要在可控的数字环境中反复尝试以建立对世界的理解[85] - 提及像Perplexity这样同时调用多个顶尖模型的“多云协同”应用,代表了未来AI应用的基本形态[83] 其他产品信息 - 宣布DGX Station台式AI超算将于2026年春季上线,搭载GB300 Grace Blackwell Ultra芯片,拥有Petaflop级算力,支持在本地运行高达1万亿参数模型,LLM预训练速度达250,000 Token/秒[87][89] - 明确CES 2026没有消费级新GPU发布,连续五年在CES发布新硬件的传统终结,传闻中的RTX 50 Super系列或因GDDR7显存产能问题已取消[6][7]
黄仁勋CES扔AI核弹!“六芯”Rubin量产,英伟达终极大杀器来了
格隆汇· 2026-01-06 06:42
英伟达发布下一代AI平台与战略 - 公司在CES 2026上发布全新Rubin AI计算平台,开启下一代人工智能 [3][6][9] - Rubin平台以天文学家薇拉・鲁宾命名,包含六款协同工作的独立芯片 [6] - 平台已进入全面生产阶段,预计2026年下半年通过戴尔、HPE、联想及云服务商等合作伙伴交付首批客户 [10][11] Rubin平台性能与创新 - 平台推理、训练性能分别是上一代Blackwell GB200的5倍和3.5倍 [3] - 平台推理token生成成本比Blackwell平台降低高达10倍 [3][7] - 训练混合专家模型所需GPU数量比前代产品减少4倍 [3][8] - 核心创新包括最新一代NVLink互连技术、Transformer引擎、机密计算、RAS引擎及NVIDIA Vera CPU [7] - 通过Vera CPU、Rubin GPU、NVLink6等芯片的协同设计,实现推理成本的革命性下降 [6] 开源模型生态布局 - 公司发布四款针对不同垂直领域的开源模型,加速全行业AI开发 [12] - 四款模型分别为:专注于逻辑推理与任务执行的Nemotron(智能体AI)、专注于理解物理规律的Cosmos(物理AI)、业界首个开源VLA模型Alpamayo(自动驾驶)、专用于生物医药研发的Clara(医疗健康) [13][14][15][16] - 公司提及开源模型的崛起是全球创新的催化剂,并特别展示了Kimi K2、Qwen、DeepseekV3.2三家中国开源模型 [19][20] - 公司认为相比最前沿的AI模型,开源模型落后约6个月,但这个距离正逐步缩短 [22] 物理AI与自动驾驶进展 - 公司将汽车视为物理AI落地的首个大规模场景 [16] - 公司对未来十年自动驾驶汽车普及表示相当肯定,认为世界上很大一部分汽车将是自动驾驶或高度自动驾驶的 [17] - 展示了在机器人与自动驾驶领域的多项进展:新一代人形机器人基础模型Isaac GR00T N1、面向L4/L5级自动驾驶的单芯片车载AI芯片DRIVE Thor、连接数字孪生与物理设备的云平台Omniverse Cloud [18]
英伟达官宣新一代GPU
财联社· 2026-01-06 02:07
专注科创板和科技创新,上海报业集团主管主办,界面财联社出品。 新年伊始,一年一度的"科技大秀"——拉斯维加斯消费电子CES展会拉开帷幕。而近几年来,CES已经成为前沿AI硬件概念的主要秀场,各 类智能眼镜、可穿戴设备通过这个平台走进全球投资者和消费者的视野。 以下文章来源于科创板日报 ,作者黄君芝 科创板日报 . 有媒体评论称,该公司今年比往年更早地公布了新产品的详细信息,是为了保持业界对其硬件的依赖,而这些硬件正是人工智能应用爆炸式 增长的基石。英伟达通常会在春季于加州圣何塞举行的GTC大会上详细介绍产品。 华尔街一些人士担忧,英伟达面临的竞争日益激烈,人工智能领域的支出无法继续以目前的速度增长。数据中心运营商也在积极开发自己的 人工智能加速器。但英伟达始终保持乐观的长期预测,认为人工智能市场规模将达到数万亿美元。 最后值得注意的是,英伟达公布的新硬件还包括网络和连接组件,将成为DGX SuperPod超级计算机的一部分,同时也可作为单独产品供客 户以更模块化的方式使用。而这一性能提升是必需的,因为AI已转向更专业化的模型网络,不仅要筛选海量输入,还需通过多阶段流程解决 特定问题。 英伟达自然也不会放过这一 ...
首款HBM4 GPU,全面投产
半导体行业观察· 2026-01-06 01:42
英伟达周一表示,其下一代 Rubin AI 芯片已"全面投产",并将于 2026 年下半年上市。同时,该公 司还公布了备受期待的 Blackwell 系列继任者的更多细节。 英伟达在2025年3月的GTC大会上预览了Vera CPU和Rubin GPU,并表示Vera-Rubin芯片组将比其 前代产品Grace-Blackwell提供更出色的AI训练和推理性能。推理是指使用训练好的AI模型来生成内 容或执行任务。 在 周 一 的 发 布 会 上 , 黄 仁 勋 公 布 了 Rubin 系 列 产 品 的 更 多 细 节 。 Rubin GPU 的 推 理 计 算 性 能 是 Blackwell的五倍,训练计算性能是Blackwell的3.5倍。与Blackwell相比,新一代芯片还能降低训练 和推理成本,推理令牌成本最多可降低10倍。 Rubin 架构包含 3360 亿个晶体管,在处理 NVFP4 数据时可提供 50 petaflops 的性能。相比之下, Nvidia 上一代 GPU 架构 Blackwell 的性能最高为 10 petaflops。同时,Rubin 的训练速度提升了 250%,达到 35 ...
黄仁勋CES 2026演讲解析--AI计算需求爆炸式增长
傅里叶的猫· 2026-01-05 23:51
下面是CES 2026上,英伟达的主题演讲schedule, 从演讲的标题标题也大概能看出来这次CES,英伟 达对Physical AI的重视程度。 | | | | CES 2026 NVIDIA Schedule | | | --- | --- | --- | --- | --- | | Date | Time (Local, PST) | Location | Event Theme | Speaker | | 2026/1/5 | 11:30 a.m .- 3:00 p.m. | Fontainebleau Las Vegas, 2nd Floor / Virtual Live Stream | NVIDIA Live at CES 2026 with Founder and CEO | Jensen Huang, Founder & CEO, NVIDIA | | | | | Jensen Huang | | | 2026/1/6 | 9:00-10:00 a.m | | Powering the Industrial Al Revolution | Roland Busch, President & ...
Nvidia launches powerful new Rubin chip architecture
TechCrunch· 2026-01-05 22:16
英伟达发布新一代Rubin AI计算架构 - 公司在CES上正式发布新一代Rubin AI计算架构 该架构代表了AI硬件的最新水平 目前已投入全面生产 并预计在今年下半年进一步扩大产能 [1] - 公司CEO黄仁勋指出 Rubin架构旨在应对AI计算需求飙升的根本性挑战 并确认Vera Rubin已进入全面生产阶段 [2] 架构技术细节与性能提升 - Rubin架构由六款独立芯片组成 以Rubin GPU为核心 同时通过升级Bluefield和NVLink系统分别解决存储和互连瓶颈 并包含专为智能体推理设计的新款Vera CPU [4] - 新架构在速度和能效上实现显著飞跃 在模型训练任务上比前代Blackwell架构快3.5倍 在推理任务上快5倍 最高算力达50 petaflops 且每瓦特支持的推理计算量提升8倍 [8] - 公司高管解释 为应对智能体AI等新型工作流对KV缓存的巨大压力 新架构引入了连接至计算设备的外部存储层 从而更高效地扩展存储池 [5][6] 市场应用与行业前景 - Rubin芯片已获几乎所有主要云服务提供商采用 包括与Anthropic、OpenAI和亚马逊云科技的高调合作 其系统还将用于HPE的Blue Lion超级计算机以及劳伦斯伯克利国家实验室即将推出的Doudna超级计算机 [3] - 新架构的发布正值AI基础设施竞争白热化阶段 AI实验室和云提供商争相抢购公司芯片及配套设施 公司CEO在2025年10月的财报电话会上预估 未来五年AI基础设施投资规模将在3万亿至4万亿美元之间 [9][10] 产品迭代与行业地位 - Rubin架构是公司硬件快速开发周期的最新成果 它将取代Blackwell架构 而Blackwell此前又取代了Hopper和Lovelace架构 这一持续的创新周期已助力公司成为全球市值最高的企业 [2]
Nvidia’s Rubin Architecture Is a Game-Changer. Here’s Why.
Yahoo Finance· 2025-12-30 17:22
公司历史表现与市场地位 - 英伟达是近几十年来最强大的成长股之一 在过去十年间创造了23500%的回报率 这意味着投资者在十年前的投资将增值235倍 [1] - 公司专注于成为全球领先的高性能芯片制造商 其发展恰逢人工智能等技术增长真正开始腾飞的时期 [2] 行业增长驱动力与公司角色 - 随着人工智能、机器学习、自动驾驶、机器人等趋势的兴起 市场对芯片和数据中心的需求将大幅增长 [3] - 英伟达在提供支撑这场技术革命的关键硬件方面处于领先地位 [3] 鲁宾架构产品详情 - 英伟达即将推出的鲁宾架构旨在将公司焦点从提供单芯片GPU转向集成的“AI工厂”生态系统 以统一大规模计算集群 [6] - 鲁宾架构与Vera CPU和HBM4内存配对 每个机架将提供144个GPU和35个Vera CPU [6] - 鲁宾架构的性能超过公司最新最强的布莱克威尔芯片的三倍以上 [5][6] 技术升级与客户价值 - 利用鲁宾基础设施 AI公司将有能力解决推理瓶颈 该技术还将支持对代码库或视频进行实时分析 这对该领域的许多公司具有重要价值 [7] 竞争格局与公司战略 - 随着更多公司寻求开发自己的定制芯片 未来几年竞争预计将加剧 [8] - 英伟达维持其领先地位的唯一途径是持续创新 并将最高性能的芯片推向市场 [8]
CoWoS产能缺口扩大 英伟达、AMD等客户争抢是主因
经济日报· 2025-11-04 23:48
文章核心观点 - 市场低估了下游新兴应用对先进封装的需求,导致台积电CoWoS产能将出现严重供不应求,2026年缺口40万片(超过20%),2027年缺口扩大至70万片(超过30%)[1] - 此波CoWoS需求大爆发将产生显著的外溢效应,使台积电、日月光投控、京元电子等六家台系供应链公司受益,均被建议“买进”[1] CoWoS需求驱动力与前景 - GPU出货成长以及光罩尺寸快速扩大是催动CoWoS需求的两大驱动力[1] - 新型装置如伺服器CPU、高阶PC与游戏主机晶片、网通交换器将于2025至2027年采用CoWoS技术,需求暴增八至十倍[1][2] - 超微将AI GPU、伺服器CPU、高阶PC及Xbox CPU转向CoWoS架构,显著推升需求[2] 台积电CoWoS产能状况 - 台积电规划在2024年至2027年间将CoWoS产能扩增四倍,但仍赶不上需求成长速度[2] - 产能短缺促使客户寻求日月光投控与艾克尔等封测厂协助供应[2] 受益供应链公司分析 - 日月光投控将负责封装超微所有新产品及英伟达Vera CPU等,直接受惠于CoWoS需求外溢[2] - 京元电子因Rubin GPU测试时间为一般二倍,且几乎独家负责博通AI ASIC最终测试,该业务将于2026年起强劲放量[2] - 京元电子还将受惠于台积电将晶圆探针测试外包给封测厂的业务[2] - 旺矽因封测厂主要采用其解决方案而间接受益于台积电的测试外包[2]
CoWoS产能有望超预期 小摩维持台积电(TSM.US)“增持“评级
智通财经· 2025-09-23 08:54
公司评级与产能展望 - 摩根大通维持台积电增持评级,目标价1275元新台币 [1] - 台积电CoWoS产能预计2026年底达9.5万片/月,2027年底进一步攀升至11.2万片/月,较此前预期显著提升 [1] - 产能扩张得益于AP8工厂按计划建设及英伟达、博通、AMD等关键客户需求持续增长 [1] 供应链战略调整 - 从2026年下半年开始,非AI产品的全栈CoWoS封装订单将向OSAT合作伙伴转移,台积电将更专注于CoW环节 [1] - oS环节将继续由日月光承担 [1] 关键客户需求分析:博通 - 博通2026年CoWoS分配量预计达18.5万片,同比增长93% [2] - 需求增长主要受谷歌TPU项目驱动,预计2026年TPU出货量达250万台,同比增长38% [2] - Meta首款CoWoS基ASIC和OpenAI的ASIC项目也将贡献增量需求,考虑内部网络芯片后需求可能突破20万片 [2] 关键客户需求分析:英伟达 - 因Rubin芯片尺寸增大和B300需求强劲,英伟达2026年上半年Blackwell系列需求保持韧性 [3] - 2026年Rubin GPU产量约290万台,封装尺寸增大导致每片CoWoS晶圆切割芯片数降至9颗,推动下半年需求增长 [3] - 2026年英伟达AI GPU总产量预计达630万台,但基于CoWoS的对华出口仍受限 [3] 关键客户需求分析:AMD - AMD的CoWoS需求在2025年保持平稳,2026年将随MI400/MI450系列及Venice CPU放量而增长 [4] - MI350需求趋势健康,但MI400/450的采用进度是关键变量 [4] - AMD将在2026/27年扩大2.5D/晶圆级扇出封装在游戏GPU和高端服务器/PC CPU的应用 [4]
英伟达重金入股英特尔:一笔不可思议的投资
21世纪经济报道· 2025-09-21 11:48
合作概述 - 英伟达与英特尔宣布达成合作 共同开发AI基础设施及个人计算产品 同时英伟达以每股23.28美元价格向英特尔普通股投资50亿美元 [2] - 合作包括三大领域:使用英伟达NVLink技术实现CPU与GPU无缝互联 英特尔为英伟达AI平台定制x86架构CPU 英特尔推出集成英伟达RTX GPU芯粒的全新x86 SoC面向PC消费市场 [6] 市场反应与估值影响 - 英特尔股价在合作宣布后瞬间拉升近30% 市值达到1295亿美元 今年涨幅47.53% [6] - 合作使英特尔获得AI产业链核心玩家的订单和生态背书 估值逻辑从传统CPU供应商跃升为AI基础设施重要参与者 [10][11] 战略意义与协同效应 - 对英特尔而言 50亿美元投资改善现金流 同时获得英伟达客户身份 直接嵌入英伟达产品体系 [10] - 英特尔将基于英伟达NVLink技术开发定制化数据中心CPU 可能成为英伟达系统级解决方案标配 [10] - 潜在代工合作机会:英伟达可能将部分CPU或GPU芯粒交由英特尔代工 分散供应链风险并为英特尔带来实质性订单 [11] - 对英伟达而言 可借助英特尔成熟x86生态在PC领域加速渗透 覆盖年营收近500亿美元的市场(数据中心CPU市场250亿美元 笔记本电脑年销售1.5亿台) [12] 技术整合与生态融合 - 合作重点包括基于NVLink技术实现CPU与GPU深度协同 针对数据中心和高端客户端市场优化 [14] - 英伟达通过合作将x86架构扩展到支持NVLink 72扩展(原仅支持PCIe接口) 实现GPU生态、Arm生态和x86生态交融 [16] - 英伟达明确表示不影响自有Arm产品路线图 包括下一代Vera CPU和基于Arm的Thor处理器、N1处理器开发 [16] 行业竞争格局影响 - 合作对AMD形成直接竞争压力 AMD原本凭借CPU-GPU协同方案在数据中心市场取得突破 [14] - Arm阵营在云计算和AI加速芯片领域面临新竞争 尽管云巨头自研芯片策略使市场竞争维度复杂化 [15] - AI基础设施竞争转向全栈整合 包括CPU、GPU、网络、内存及软件生态的综合较量 [16] 政府角色与投资背景 - 美国政府8月入股英特尔 但英伟达CEO黄仁勋强调特朗普政府未参与此项合作 合作只关乎技术与产品 [8]