Workflow
HBM紧缺恐成定局 但这一技术正“虎视眈眈”

AI时代存储芯片的战略地位转变 - 存储芯片已从配角跃升为AI算力的核心瓶颈与突破口,传统内存技术成为制约算力发挥的“内存墙”[1] - HBM凭借超高带宽、低功耗和小体积特性,正成为AI芯片的主流选择[1] HBM市场需求与行业动态 - 美光预计半导体芯片、特别是HBM的供不应求情况将会加剧,公司2026年HBM出货量增速将超过整体DRAM水平[2] - 美光已与几乎所有客户就2026年绝大部分HBM3E产能达成定价协议,HBM4供应“非常紧张”[2] - 华为宣布自昇腾950PR开始,其昇腾AI芯片将采用自研的HBM[2] - SK海力士预测HBM能效每改善10%,可带来单机架2%的节能效果[4] HBM技术演进与价值重塑 - 定制化HBM已从被动元件转变为具备逻辑算力的主动部件,集成不同功能与逻辑Die设计成为性能差异化的关键[3] - 存储厂商开始提供覆盖HBM、逻辑die、LPDDR、PIM等的全栈解决方案,并与客户开展定制化HBM合作[4] - AI基建中存储的总体拥有成本不断上升[3] AI推理驱动的存储需求增长 - AI推理将迎来巨大增长,推理过程正演变为“先思考再作答”的动态生成,思考时间越长答案质量越高[5] - AI推理算力需求正迅速超越训练,成为成本与性能的关键瓶颈[5] - 超长上下文和多模态推理需求推动对高性能内存和分层存储的依赖,HBM、DRAM、SSD及HDD在其中发挥关键作用[5] - 轻量化模型部署推动存储容量需求快速攀升,预计未来整体需求将激增至数百EB级别[6] 存储技术替代路径:“以存代算” - “以存代算”技术通过将AI推理中的矢量数据从HBM/DRAM迁移至SSD,实现存储层战略扩展,核心价值在于降低时延、提升吞吐并优化成本[7] - QLC+PCIe/NVMe+CXL有望构筑下一代AI SSD基座,推动SSD升级为AI推理的“长期记忆”载体[7]