Workflow
AI算力“卖水人”专题系列(7):从Blackwell到Rubin:计算、网络、存储持续升级

行业投资评级 - 报告对计算机行业维持"推荐"评级 [1][11] 核心观点 - 大模型训练与推理带动AI算力需求增长,GB300、Vera Rubin等新一代算力架构将推动产业链多环节持续受益 [11] - 英伟达Blackwell Ultra架构性能显著提升,Rubin架构预期乐观,算力升级趋势明确 [5][10][16] - AI算力在计算、网络、存储及液冷等领域技术迭代加速,产业链各环节迎来发展机遇 [6][7][8][9] GPU核心架构升级 - B300基于Blackwell Ultra架构,采用TSMC 4NP工艺与CoWoS-L封装,FP4浮点算力达15PFLOPS,较B200提升50% [5][22][26] - GB300搭载288GB HBM3E显存,内存带宽维持8TB/s,FP4计算能力较前代提升1.5倍 [5][30] - Rubin架构预计2026年推出,Vera Rubin NVL144性能达GB300 NVL72的3.3倍,Rubin Ultra NVL576性能提升14倍,内存容量为GB300的8倍 [5][31][32] - 英伟达FY2026Q2营收467亿美元,同比增长56%,FY2026Q3营收指引约540亿美元 [5][57][59] 服务器与计算平台演进 - GB300 NVL72系统由18个计算托盘和9个交换机托盘组成,集成72颗Blackwell Ultra GPU与36颗Grace CPU,AI工厂总体产出性能较Hopper提升50倍潜力 [6][75][80] - Rubin Ultra NVL576计划2027年推出,采用Kyber架构提升机架密度,PCB背板替代铜缆互联 [6][83][85] - 服务器制造级别从Level 1(零部件)到Level 12(多机架解决方案),ODM厂商参与度提升 [62][63] 网络技术突破 - CPO(共封装光学)技术取代可插拔光模块,能效提升3.5倍,部署速度加快1.3倍,延迟显著降低 [7][102][105] - Quantum-X和Spectrum-X交换机支持400Tbps吞吐量,2026年量产,助力超大规模AI工厂建设 [7][111] - NVLink 6.0技术将于Rubin架构实现3.6TB/s速度,NVLink Fusion开放生态支持第三方芯片协同 [7][113][118] 存储技术迭代 - HBM4预计2026年量产,12层堆叠样品已交付,溢价幅度或超30% [8][148][152] - SK海力士主导HBM市场,2025年市占率超50%,与英伟达、微软合作开发定制化HBM芯片 [8][154][156][162] - HBM技术路线图显示带宽将从2TB/s(HBM4)提升至64TB/s(HBM8),堆叠层数增至24Hi [8][163][164] 液冷散热方案 - GB300采用独立液冷板设计,单芯片配备单独冷板,Compute tray冷板用量较GB200增加133% [9][170][174][176] - 液冷市场空间显著扩大,单机柜价值量约9.9万美元,2025-2026年CAGR预计30% [9][178][181] - Rubin Ultra NVL576计划2027年实现100%液冷,彻底摒弃风冷方案 [9][181] 产业链相关公司 - AI芯片:英伟达、AMD、Intel、寒武纪、海光信息等 [12][187] - 服务器整机:工业富联、浪潮信息、纬创、广达、超微电脑等 [12][187] - 服务器组件:散热(曙光数创、英维克)、主板(沪电股份、技嘉)、HBM(SK海力士、三星)、铜连接(安费诺、沃尔核材) [12][187] - 光模块:中际旭创、新易盛、天孚通信等 [12][188] - 数据中心与算力租赁:奥飞数据、宝信软件、协创数据等 [12][189][190]