Vera CPU
搜索文档
今夜无显卡,老黄引爆Rubin时代,6颗芯狂飙5倍算力
36氪· 2026-01-06 09:40
英伟达Vera Rubin AI超算平台发布 - 在CES 2026上,英伟达正式发布并宣布其下一代AI芯片架构Vera Rubin已全面投产,预计2026年下半年面世[1][3] - 该平台旨在解决AI算力规模化难题,目标是将算力变得像电力一样廉价,推动AI大爆发[8][10] Vera Rubin平台架构与性能 - 平台采用系统性设计,首次将CPU、GPU、网络、存储和安全作为一个整体来设计,核心思路是将整个数据中心变成一台AI超算[13] - 平台由六大关键组件构成:Vera CPU、Rubin GPU、NVLink 6、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet[14] - Rubin GPU搭载第三代Transformer引擎,提供50 PFLOPS的NVFP4推理算力,性能达到上一代Blackwell GPU的5倍[16][27] - 引入专为智能体推理设计的Vera CPU,采用88个自研Olympus核心,I/O带宽和能效比直接翻倍[18] - NVLink 6提供单芯片400Gb/s交换能力,单GPU带宽3.6TB/s,Rubin NVL72机架带宽达260TB/s,超过整个互联网[22] - 集成计算单元(托盘)包含2颗Vera CPU、4颗Rubin GPU、1颗BlueField-4 DPU和8颗ConnectX-9网卡,算力达100 PetaFLOPS[24] 性能提升与成本降低 - 训练性能:Rubin架构训练模型速度达Blackwell架构的3.5倍(35 petaflops)[27] - 推理性能:推理任务速度达Blackwell的5倍(最高50 petaflops),单位token推理效率提升最高可达10倍,算力成本可降至原来的1/10[1][3][32] - 内存与带宽:HBM4内存带宽提升至22 TB/s,是上一代的2.8倍;单GPU NVLink互连带宽翻倍至3.6 TB/s[27] - 规模化训练:在超大规模MoE模型训练中,所需GPU数量相比Blackwell可减少至1/4,整体能耗显著下降[3][28] - 性能提升归因于NVLink 6提升互联带宽、Vera CPU与GPU协同调度减少空转、ConnectX-9与Spectrum-6深度协同突破集群规模限制[29] DGX SuperPOD与规模化部署 - 推出新一代DGX SuperPOD,连接多个Rubin NVL72机架形成更大AI计算集群,示例配置包含8个机架共576个GPU[37][39] - Rubin NVL72系统集成72块Rubin GPU、36块Vera CPU等组件,提供统一、安全的系统,可处理数千个Agentic AI智能体及数百万token上下文[41] - 该平台旨在提供开箱即用的AI基础设施,一次性解决数百个GPU互联与管理存储的问题[41] 安全与商用计划 - Rubin是首个支持第三代机密计算(Confidential Computing)的AI超算平台,实现模型参数、推理数据、用户请求的全链路加密[46] - 平台将由AWS、Microsoft Azure、Google Cloud、Meta、OpenAI等头部厂商首批部署,2026年下半年进入大规模商用阶段,下一代主流大模型预计将运行于此架构上[47] 自动驾驶与物理AI进展 - 发布端到端自动驾驶AI系统AlphaMayo,具备显式推理能力,能从摄像头输入到车辆动作执行全流程由模型完成,演示中实现全程0接管[51][53][55] - 宣布NVIDIA DRIVE AV软件首次搭载于全新梅赛德斯-奔驰CLA,提供L2级端到端驾驶[57] - 推出针对物理AI(Physical AI)的开源全家桶,包括模型、框架及基础设施,旨在加速机器人等具身智能发展[62] - 开源模型包括:世界模型Cosmos Transfer/Predict 2.5、推理模型Cosmos Reason 2、人形机器人模型Isaac GR00T N1.6,均已上线Hugging Face[64] - 发布开源框架Isaac Lab-Arena和统一调度平台NVIDIA OSMO,以缩短机器人开发周期[64][65] 边缘计算与硬件更新 - 推出全新Jetson T4000模组,将Blackwell架构带到边缘端,算力达1200 FP4 TFLOPS,是上一代的4倍,1000台起订单价1999美元,功耗70瓦[67][68][69] - 宣布Hugging Face上的开源机器人Reachy 2和Reachy Mini已完美适配英伟达Jetson平台[67] 产业观点与未来展望 - 公司认为计算产业正同时经历从传统计算走向AI以及整个软硬件栈底层重塑两次平台级转变,AI正成为全新的应用底座[72] - 指出智能体AI(Agentic AI)之后的下一个前沿是物理AI(Physical AI)[74] - 强调仿真模拟是物理AI体系的核心,AI需要在可控的数字环境中反复尝试以建立对世界的理解[85] - 提及像Perplexity这样同时调用多个顶尖模型的“多云协同”应用,代表了未来AI应用的基本形态[83] 其他产品信息 - 宣布DGX Station台式AI超算将于2026年春季上线,搭载GB300 Grace Blackwell Ultra芯片,拥有Petaflop级算力,支持在本地运行高达1万亿参数模型,LLM预训练速度达250,000 Token/秒[87][89] - 明确CES 2026没有消费级新GPU发布,连续五年在CES发布新硬件的传统终结,传闻中的RTX 50 Super系列或因GDDR7显存产能问题已取消[6][7]
黄仁勋CES扔AI核弹!“六芯”Rubin量产,英伟达终极大杀器来了
格隆汇· 2026-01-06 06:42
英伟达发布下一代AI平台与战略 - 公司在CES 2026上发布全新Rubin AI计算平台,开启下一代人工智能 [3][6][9] - Rubin平台以天文学家薇拉・鲁宾命名,包含六款协同工作的独立芯片 [6] - 平台已进入全面生产阶段,预计2026年下半年通过戴尔、HPE、联想及云服务商等合作伙伴交付首批客户 [10][11] Rubin平台性能与创新 - 平台推理、训练性能分别是上一代Blackwell GB200的5倍和3.5倍 [3] - 平台推理token生成成本比Blackwell平台降低高达10倍 [3][7] - 训练混合专家模型所需GPU数量比前代产品减少4倍 [3][8] - 核心创新包括最新一代NVLink互连技术、Transformer引擎、机密计算、RAS引擎及NVIDIA Vera CPU [7] - 通过Vera CPU、Rubin GPU、NVLink6等芯片的协同设计,实现推理成本的革命性下降 [6] 开源模型生态布局 - 公司发布四款针对不同垂直领域的开源模型,加速全行业AI开发 [12] - 四款模型分别为:专注于逻辑推理与任务执行的Nemotron(智能体AI)、专注于理解物理规律的Cosmos(物理AI)、业界首个开源VLA模型Alpamayo(自动驾驶)、专用于生物医药研发的Clara(医疗健康) [13][14][15][16] - 公司提及开源模型的崛起是全球创新的催化剂,并特别展示了Kimi K2、Qwen、DeepseekV3.2三家中国开源模型 [19][20] - 公司认为相比最前沿的AI模型,开源模型落后约6个月,但这个距离正逐步缩短 [22] 物理AI与自动驾驶进展 - 公司将汽车视为物理AI落地的首个大规模场景 [16] - 公司对未来十年自动驾驶汽车普及表示相当肯定,认为世界上很大一部分汽车将是自动驾驶或高度自动驾驶的 [17] - 展示了在机器人与自动驾驶领域的多项进展:新一代人形机器人基础模型Isaac GR00T N1、面向L4/L5级自动驾驶的单芯片车载AI芯片DRIVE Thor、连接数字孪生与物理设备的云平台Omniverse Cloud [18]
英伟达官宣新一代GPU
财联社· 2026-01-06 02:07
专注科创板和科技创新,上海报业集团主管主办,界面财联社出品。 新年伊始,一年一度的"科技大秀"——拉斯维加斯消费电子CES展会拉开帷幕。而近几年来,CES已经成为前沿AI硬件概念的主要秀场,各 类智能眼镜、可穿戴设备通过这个平台走进全球投资者和消费者的视野。 以下文章来源于科创板日报 ,作者黄君芝 科创板日报 . 有媒体评论称,该公司今年比往年更早地公布了新产品的详细信息,是为了保持业界对其硬件的依赖,而这些硬件正是人工智能应用爆炸式 增长的基石。英伟达通常会在春季于加州圣何塞举行的GTC大会上详细介绍产品。 华尔街一些人士担忧,英伟达面临的竞争日益激烈,人工智能领域的支出无法继续以目前的速度增长。数据中心运营商也在积极开发自己的 人工智能加速器。但英伟达始终保持乐观的长期预测,认为人工智能市场规模将达到数万亿美元。 最后值得注意的是,英伟达公布的新硬件还包括网络和连接组件,将成为DGX SuperPod超级计算机的一部分,同时也可作为单独产品供客 户以更模块化的方式使用。而这一性能提升是必需的,因为AI已转向更专业化的模型网络,不仅要筛选海量输入,还需通过多阶段流程解决 特定问题。 英伟达自然也不会放过这一 ...
首款HBM4 GPU,全面投产
半导体行业观察· 2026-01-06 01:42
英伟达周一表示,其下一代 Rubin AI 芯片已"全面投产",并将于 2026 年下半年上市。同时,该公 司还公布了备受期待的 Blackwell 系列继任者的更多细节。 英伟达在2025年3月的GTC大会上预览了Vera CPU和Rubin GPU,并表示Vera-Rubin芯片组将比其 前代产品Grace-Blackwell提供更出色的AI训练和推理性能。推理是指使用训练好的AI模型来生成内 容或执行任务。 在 周 一 的 发 布 会 上 , 黄 仁 勋 公 布 了 Rubin 系 列 产 品 的 更 多 细 节 。 Rubin GPU 的 推 理 计 算 性 能 是 Blackwell的五倍,训练计算性能是Blackwell的3.5倍。与Blackwell相比,新一代芯片还能降低训练 和推理成本,推理令牌成本最多可降低10倍。 Rubin 架构包含 3360 亿个晶体管,在处理 NVFP4 数据时可提供 50 petaflops 的性能。相比之下, Nvidia 上一代 GPU 架构 Blackwell 的性能最高为 10 petaflops。同时,Rubin 的训练速度提升了 250%,达到 35 ...
黄仁勋CES 2026演讲解析--AI计算需求爆炸式增长
傅里叶的猫· 2026-01-05 23:51
下面是CES 2026上,英伟达的主题演讲schedule, 从演讲的标题标题也大概能看出来这次CES,英伟 达对Physical AI的重视程度。 | | | | CES 2026 NVIDIA Schedule | | | --- | --- | --- | --- | --- | | Date | Time (Local, PST) | Location | Event Theme | Speaker | | 2026/1/5 | 11:30 a.m .- 3:00 p.m. | Fontainebleau Las Vegas, 2nd Floor / Virtual Live Stream | NVIDIA Live at CES 2026 with Founder and CEO | Jensen Huang, Founder & CEO, NVIDIA | | | | | Jensen Huang | | | 2026/1/6 | 9:00-10:00 a.m | | Powering the Industrial Al Revolution | Roland Busch, President & ...
Nvidia launches powerful new Rubin chip architecture
TechCrunch· 2026-01-05 22:16
英伟达发布新一代Rubin AI计算架构 - 公司在CES上正式发布新一代Rubin AI计算架构 该架构代表了AI硬件的最新水平 目前已投入全面生产 并预计在今年下半年进一步扩大产能 [1] - 公司CEO黄仁勋指出 Rubin架构旨在应对AI计算需求飙升的根本性挑战 并确认Vera Rubin已进入全面生产阶段 [2] 架构技术细节与性能提升 - Rubin架构由六款独立芯片组成 以Rubin GPU为核心 同时通过升级Bluefield和NVLink系统分别解决存储和互连瓶颈 并包含专为智能体推理设计的新款Vera CPU [4] - 新架构在速度和能效上实现显著飞跃 在模型训练任务上比前代Blackwell架构快3.5倍 在推理任务上快5倍 最高算力达50 petaflops 且每瓦特支持的推理计算量提升8倍 [8] - 公司高管解释 为应对智能体AI等新型工作流对KV缓存的巨大压力 新架构引入了连接至计算设备的外部存储层 从而更高效地扩展存储池 [5][6] 市场应用与行业前景 - Rubin芯片已获几乎所有主要云服务提供商采用 包括与Anthropic、OpenAI和亚马逊云科技的高调合作 其系统还将用于HPE的Blue Lion超级计算机以及劳伦斯伯克利国家实验室即将推出的Doudna超级计算机 [3] - 新架构的发布正值AI基础设施竞争白热化阶段 AI实验室和云提供商争相抢购公司芯片及配套设施 公司CEO在2025年10月的财报电话会上预估 未来五年AI基础设施投资规模将在3万亿至4万亿美元之间 [9][10] 产品迭代与行业地位 - Rubin架构是公司硬件快速开发周期的最新成果 它将取代Blackwell架构 而Blackwell此前又取代了Hopper和Lovelace架构 这一持续的创新周期已助力公司成为全球市值最高的企业 [2]
Nvidia’s Rubin Architecture Is a Game-Changer. Here’s Why.
Yahoo Finance· 2025-12-30 17:22
Antonio Bordunovi / iStock Editorial via Getty Images As one of the most powerful growth stocks we've seen in generations, Nvidia (NASDAQ:NVDA) has probably minted more millionaires than any other stock in recent history. Indeed, this company's 23,500% return over the past decade is one that would have allowed investors who bought this stock ten years ago to 235x their money over that time frame. Quick Read Nvidia’s stock returned 23,500% over the past decade. The new Rubin architecture delivers mor ...
CoWoS产能缺口扩大 英伟达、AMD等客户争抢是主因
经济日报· 2025-11-04 23:48
文章核心观点 - 市场低估了下游新兴应用对先进封装的需求,导致台积电CoWoS产能将出现严重供不应求,2026年缺口40万片(超过20%),2027年缺口扩大至70万片(超过30%)[1] - 此波CoWoS需求大爆发将产生显著的外溢效应,使台积电、日月光投控、京元电子等六家台系供应链公司受益,均被建议“买进”[1] CoWoS需求驱动力与前景 - GPU出货成长以及光罩尺寸快速扩大是催动CoWoS需求的两大驱动力[1] - 新型装置如伺服器CPU、高阶PC与游戏主机晶片、网通交换器将于2025至2027年采用CoWoS技术,需求暴增八至十倍[1][2] - 超微将AI GPU、伺服器CPU、高阶PC及Xbox CPU转向CoWoS架构,显著推升需求[2] 台积电CoWoS产能状况 - 台积电规划在2024年至2027年间将CoWoS产能扩增四倍,但仍赶不上需求成长速度[2] - 产能短缺促使客户寻求日月光投控与艾克尔等封测厂协助供应[2] 受益供应链公司分析 - 日月光投控将负责封装超微所有新产品及英伟达Vera CPU等,直接受惠于CoWoS需求外溢[2] - 京元电子因Rubin GPU测试时间为一般二倍,且几乎独家负责博通AI ASIC最终测试,该业务将于2026年起强劲放量[2] - 京元电子还将受惠于台积电将晶圆探针测试外包给封测厂的业务[2] - 旺矽因封测厂主要采用其解决方案而间接受益于台积电的测试外包[2]
CoWoS产能有望超预期 小摩维持台积电(TSM.US)“增持“评级
智通财经· 2025-09-23 08:54
公司评级与产能展望 - 摩根大通维持台积电增持评级,目标价1275元新台币 [1] - 台积电CoWoS产能预计2026年底达9.5万片/月,2027年底进一步攀升至11.2万片/月,较此前预期显著提升 [1] - 产能扩张得益于AP8工厂按计划建设及英伟达、博通、AMD等关键客户需求持续增长 [1] 供应链战略调整 - 从2026年下半年开始,非AI产品的全栈CoWoS封装订单将向OSAT合作伙伴转移,台积电将更专注于CoW环节 [1] - oS环节将继续由日月光承担 [1] 关键客户需求分析:博通 - 博通2026年CoWoS分配量预计达18.5万片,同比增长93% [2] - 需求增长主要受谷歌TPU项目驱动,预计2026年TPU出货量达250万台,同比增长38% [2] - Meta首款CoWoS基ASIC和OpenAI的ASIC项目也将贡献增量需求,考虑内部网络芯片后需求可能突破20万片 [2] 关键客户需求分析:英伟达 - 因Rubin芯片尺寸增大和B300需求强劲,英伟达2026年上半年Blackwell系列需求保持韧性 [3] - 2026年Rubin GPU产量约290万台,封装尺寸增大导致每片CoWoS晶圆切割芯片数降至9颗,推动下半年需求增长 [3] - 2026年英伟达AI GPU总产量预计达630万台,但基于CoWoS的对华出口仍受限 [3] 关键客户需求分析:AMD - AMD的CoWoS需求在2025年保持平稳,2026年将随MI400/MI450系列及Venice CPU放量而增长 [4] - MI350需求趋势健康,但MI400/450的采用进度是关键变量 [4] - AMD将在2026/27年扩大2.5D/晶圆级扇出封装在游戏GPU和高端服务器/PC CPU的应用 [4]
英伟达重金入股英特尔:一笔不可思议的投资
21世纪经济报道· 2025-09-21 11:48
合作概述 - 英伟达与英特尔宣布达成合作 共同开发AI基础设施及个人计算产品 同时英伟达以每股23.28美元价格向英特尔普通股投资50亿美元 [2] - 合作包括三大领域:使用英伟达NVLink技术实现CPU与GPU无缝互联 英特尔为英伟达AI平台定制x86架构CPU 英特尔推出集成英伟达RTX GPU芯粒的全新x86 SoC面向PC消费市场 [6] 市场反应与估值影响 - 英特尔股价在合作宣布后瞬间拉升近30% 市值达到1295亿美元 今年涨幅47.53% [6] - 合作使英特尔获得AI产业链核心玩家的订单和生态背书 估值逻辑从传统CPU供应商跃升为AI基础设施重要参与者 [10][11] 战略意义与协同效应 - 对英特尔而言 50亿美元投资改善现金流 同时获得英伟达客户身份 直接嵌入英伟达产品体系 [10] - 英特尔将基于英伟达NVLink技术开发定制化数据中心CPU 可能成为英伟达系统级解决方案标配 [10] - 潜在代工合作机会:英伟达可能将部分CPU或GPU芯粒交由英特尔代工 分散供应链风险并为英特尔带来实质性订单 [11] - 对英伟达而言 可借助英特尔成熟x86生态在PC领域加速渗透 覆盖年营收近500亿美元的市场(数据中心CPU市场250亿美元 笔记本电脑年销售1.5亿台) [12] 技术整合与生态融合 - 合作重点包括基于NVLink技术实现CPU与GPU深度协同 针对数据中心和高端客户端市场优化 [14] - 英伟达通过合作将x86架构扩展到支持NVLink 72扩展(原仅支持PCIe接口) 实现GPU生态、Arm生态和x86生态交融 [16] - 英伟达明确表示不影响自有Arm产品路线图 包括下一代Vera CPU和基于Arm的Thor处理器、N1处理器开发 [16] 行业竞争格局影响 - 合作对AMD形成直接竞争压力 AMD原本凭借CPU-GPU协同方案在数据中心市场取得突破 [14] - Arm阵营在云计算和AI加速芯片领域面临新竞争 尽管云巨头自研芯片策略使市场竞争维度复杂化 [15] - AI基础设施竞争转向全栈整合 包括CPU、GPU、网络、内存及软件生态的综合较量 [16] 政府角色与投资背景 - 美国政府8月入股英特尔 但英伟达CEO黄仁勋强调特朗普政府未参与此项合作 合作只关乎技术与产品 [8]