Workflow
CXL互连芯片
icon
搜索文档
存储是Tokens的积分,产业链空间广阔
广发证券· 2025-12-14 05:49
行业投资评级 - 报告对电子行业给予“买入”评级 [2] 核心观点 - 核心观点:存储是Tokens的积分,AI推理驱动存储需求快速增长,产业链空间广阔 [1][5] - AI服务器中的存储主要包括HBM、DRAM、SSD等,呈现性能逐级下降、容量逐级增加、成本逐级降低的特征 [13] - AI推理驱动存储快速增长,内存受益于超长上下文和多模态推理需求,SSD和HDD是Tokens的积分 [5][23] - AI推理驱动存储需求增长,产业链空间广阔,具体体现在eSSD、MRDIMM、SPD&VPD芯片以及CXL存储池化等领域 [5][25] - 投资建议:AI推理驱动存储周期持续向上,建议关注存储产业链相关标的,包括存储原厂、设备、代工、接口芯片等环节 [5][79] 根据相关目录分别总结 一、存储是TOKENS的积分,推理驱动AI存储快速增长 - AI服务器中的存储主要包括HBM、DRAM、SSD等,构成分级存储体系以支撑高效计算 [13][17] - 内存受益于超长上下文和多模态推理需求,高带宽与大容量内存可降低访问延迟、提升并行效率 [5][23] - SSD和HDD是Tokens的积分,用于存储推理生成的数据,预计未来整体需求将激增至数百EB级别 [5][23] - 基于关键假设测算,2026年10个谷歌级推理应用所需存储容量为49 EB,并预计2029年需求将达到55,367 EB [23][24] 二、AI推理驱动存储需求增长,产业链空间广阔 (一)AI&存储服务器用eSSD空间广阔 - eSSD在AI应用中主要用于训练、推理及数据存储三大场景,长上下文推理、RAG数据库及tokens规模增长将持续增强对其需求 [25] - 基于NVIDIA NVL72参考设计等假设测算,2024、2025、2026年AI服务器用eSSD理论最大市场空间分别为59 EB、89 EB、120 EB [27][30] - 从市场结构看,存储服务器用eSSD出货量增速最为明显,预计2024-2030年CAGR达54%,2030年市场规模将达614 EB [34][36] - AI服务器用eSSD同期CAGR预计为20%,2030年市场规模将达134 EB [34][36] (二)MRDIMM有望应用于大模型推理 - MRDIMM在大模型推理的KV Cache场景下可提供并发更高、上下文更长、端到端时延更低的确定性增益 [5][38] - 根据相关报告,MRDIMM Gen2在AI负载下相对DDR5 RDIMM带宽可提升2.3倍 [38][39] - MRDIMM单条支持最高128GB容量,并适配CPU侧KV Cache卸载,有助于缓解GPU显存压力并优化资源利用 [38][43] (三)SPD&VPD芯片空间广阔 - 随DDR5渗透率提升,SPD芯片技术规格和单价较DDR4世代更高,市场在价值量与需求量双重驱动下快速发展 [5][45] - DDR5 SPD容量从DDR4的512字节升级至1024字节,并集成I2C/I3C总线集线器,增加PMIC和温度传感器配置 [45] - SSD性能提升推动VPD EEPROM产品技术规格升级,其价值量有望随存储容量从4Kbit向上提升及总线从I2C升级至I3C而增加 [5][46] (四)CXL存储池化助力AI推理 - CXL协议可实现存储池化,显著提升计算效率,在KV Cache密集型推理中能形成显著的TCO优势 [5][53][56] - 案例显示,在DeepSeek-1.73B量化模型推理中,采用“1x CPU + CXL内存”配置与“2x CPU”配置性能基本持平,但成本、功耗和发热更低 [56][58] - 英伟达通过入股英特尔和收购Enfabrica布局CXL能力,旨在优化GPU与扩展内存的互连,提升计算效率 [59][61] - 阿里云推出了基于CXL 2.0 Switch技术的PolarDB数据库专用服务器,可实现百纳秒级延迟和数TB/s带宽的远程内存访问,提升推理吞吐 [67][68] - CXL互连芯片(包括MXC和Switch芯片)是技术落地的核心载体,随CXL内存池在服务器中渗透,其市场将进入爆发增长通道 [74][75]
广发证券:CXL存储池化助力AI推理 建议关注CXL互连芯片相关厂商
智通财经· 2025-10-10 03:02
CXL技术概述与核心价值 - CXL是一种开放性高速串行协议,旨在实现CPU、内存、GPU等硬件间更高数据吞吐量和更低延迟的通信,以满足资源共享、内存池化和高效运算调度的需求 [1] - 通过CXL可支持GPU和FPGA等加速器与主处理器高效协作,提升AI模型训练和推理速度,并为AI应用提供更大内存空间和更灵活的资源分配方案,解决内存带宽瓶颈,提高计算效率 [1] 行业巨头布局动态 - 英伟达于2025年9月宣布入股英特尔50亿美元,英特尔将为英伟达打造定制化x86 CPU,集成至英伟达AI基础设施平台,英特尔作为CXL联盟创始成员,有望推动英伟达NVLink与CXL互联技术互通 [2] - 同月英伟达收购Enfabrica核心技术与团队,其产品ACF-S超级网卡可为GPU、CPU、池化内存与网络之间提供直接且低延迟的数据路径,其弹性内存网络系统EMFASYS通过CXL协议与DDR5内存连接,最多可支持8TB内存容量和144条CXL通道 [2] - 阿里云在2025年云栖大会推出全球首款基于CXL 2.0 Switch技术的PolarDB数据库专用服务器,基于CXL的分布式内存池解决方案可实现延迟低至百纳秒级,带宽吞吐达到数TB/s的远程内存访问 [3] CXL技术应用与效益 - 阿里云PolarDB服务器打通了GPU+CPU与共享内存池的协同通路,在KVCache池化方面可实现跨节点KVCache的弹性调度与毫秒级远程访问,显著提升推理吞吐与资源利用率 [3] - 未来随CXL技术持续在AI领域渗透,将拉动CXL MXC和CXL Switch芯片需求 [1] - 未来随CXL Switch的演进,系统将支持多级交换架构、动态容量设备及Fabric拓扑设计,进一步强化异构计算能力与横向扩展性 [3] 相关产业链与投资机会 - 建议关注CXL互连芯片相关厂商:澜起科技、聚辰股份、RAMBUS、ALAB等 [1]