存储猛拉,AI存力超级周期到底有多神?
36氪·2026-01-06 12:19

文章核心观点 AI需求全面驱动存储行业进入上行周期,从HBM延伸至DRAM、NAND、HDD等传统存储领域,行业格局被重塑[3] 本轮周期的猛烈程度高于以往,以美光为例,其下季度毛利率指引达66-68%,创历史新高[1] AI服务器从训练向推理的重心转移,催生了“低延迟、大容量、高带宽”的差异化存储需求,而存储厂商资本开支向高附加值的HBM与DRAM倾斜,形成结构性供需失衡,推动产品价格大幅上涨[3] AI服务器带来的存储大周期 - AI需求彻底重塑存储行业格局,带动HBM、DRAM、NAND、HDD全品类进入全面上行周期[3] - AI服务器数据流动路线清晰:HDD的冷数据 -> SSD预热 -> DRAM中转 -> HBM配合计算,各部分在训练和推理服务器中均需要[12] - 当前AI服务器领域出现明显变化:重心从训练向推理迁移,推理服务器更注重DDR(并发任务)、SSD(快速响应)和HDD(大容量)[14] 各类存储在AI服务器中的角色 - HBM:与GPU芯片3D堆叠,是GPU的“专用显存”,具有高带宽、高功耗特点,决定单GPU可承载的模型规模与响应速度,是AI服务器的“性能天花板”[11] - DRAM (DDR5):是数据交换枢纽,连接HBM与NAND的“桥梁”,速度比HBM慢但容量大很多倍,其容量决定单服务器可同时处理的任务数,是AI服务器的“内存基石”[12] - NAND (SSD):是热数据仓库,高频访问数据的“快速持久层”,连接DRAM与HDD,作为AI数据中心的“性能-容量平衡者”,是训练数据“快速补给站”和推理服务“快速响应核心”[12] - HDD:海量冷数据的低成本容器,具有大容量、成本低特点,是AI数据中心的“容量基石”,决定整体数据存储规模[12] 当前AI存储的特点与“内存墙”瓶颈 - AI数据中心核心矛盾是“内存墙”瓶颈:算力增长速度远超数据传输速度,导致GPU等计算单元空置率高达99%[5] - 以H100为例,HBM带宽3.35TB/s,单Token计算时间10微秒,但加载模型权重(如10GB)和KV缓存(如20GB)需要约9毫秒,计算闲置时间占比近99%[16] - 应对“内存墙”的三大方法: 1. HBM升级:堆叠层数从12-Hi向16-Hi升级,传输速度有望从B300的8TB/s提升至16-32TB/s,减少数据排队等待时间[18] 2. SRAM应用:3D堆叠SRAM将KV缓存、模型轻量权重放在计算单元近端,量产后采用“SRAM+HBM”形式(SRAM负责“快”,HBM负责“多”),有望将延迟从100ns大幅缩短至2ns附近[19] 3. 存算一体:将部分算力嵌入存储内部,彻底消除数据搬运速度问题,预计2027年及之后逐渐成为解决途径[19] - 英伟达收购Groq属于防御性收购,旨在获得其SRAM技术(LPU架构、TSP微架构等)和人才,以提升AI推理能力并防止技术落入竞争对手之手[21] HBM市场供需与升级 - HBM是AI需求带来的“从无到有”的直接增量需求,其需求量与AI芯片出货直接挂钩[23] - 当前主流AI芯片(英伟达、AMD、谷歌)基本搭载HBM3E,三大原厂已开始对HBM4进行送样,HBM4预计2026年开启量产[6][24] - 供给端:三大原厂(三星、海力士、美光)资本开支重心投向HBM领域[27] 2025年四季度三家合计HBM月产能约39万片,预计到2026年四季度提升至51万片[29] 考虑产能爬坡和50%综合良率,预计2026年HBM供应量约为41.9亿GB[34][35] - 需求端:HBM需求量通过“CoWoS -> AI芯片 -> HBM”路径估算,2026年全球CoWoS需求量约128万片,对应HBM需求量约42亿GB[36][39] - 供需格局:2026年HBM市场呈现“供应紧平衡”状态,供应量(41.9亿GB)与需求量(42亿GB)基本匹配[6][39] - 竞争格局:海力士占据当前HBM市场近一半份额,三星和美光份额接近[32] 随着三星HBM3E在2024年四季度获得英伟达认证,其出货份额有望回升并反超美光[32]