生成式AI对内存带宽的需求 - 生成式人工智能革命揭示,AI数据中心的真正瓶颈是内存带宽而非处理速度,无法满足高速内存需求将使基础设施失效 [1] - 行业面临新铁律:必须足够快地提供高带宽内存(HBM)以支持AI运算 [1] HBM4技术规格与优势 - HBM4是3D堆叠内存技术,目标在2,048位接口上实现每引脚8 Gbps速度,每个内存堆栈带宽达到2 TB/s,约为当前HBM3芯片带宽的两倍 [2] - HBM4支持高达16层堆叠,每个芯片密度为24 Gb或32 Gb,每个堆叠最高容量达64 GB,相当于目前高端GPU的整个显存容量 [2] - HBM4设计兼顾能效,允许更低的I/O电压和核心电压,以满足训练大型语言模型时在GPU间移动TB级数据的需求 [3] HBM4市场竞争格局 - 目前仅SK海力士、美光和三星三家内存供应商拥有批量生产HBM4所需的DRAM和3D堆叠专业知识 [3] - HBM4供应竞争将直接影响英伟达、AMD和博通等公司未来的AI硬件路线图 [3] SK海力士的HBM4领先地位 - SK海力士在2025年第二季度的HBM市场份额为62%,远领先于竞争对手,优势源于与英伟达的紧密联盟 [3] - 公司在2025年3月交付全球首批12层HBM4样品,并于同年9月确认其HBM4满足所有规格,每针运行速度达10 GT/s,比基准8 GT/s快25% [4] - SK海力士使用成熟的1b DRAM工艺制造HBM4 DRAM芯片,注重可靠性和良率,已准备好在客户需要时提升产量,预计2026年初开始批量出货 [5][7] - 公司2025年第二季度报告显示,其77%的销售额来自HBM及相关AI内存 [7] 美光科技的HBM进展 - 美光在HBM领域市场份额达21%,超过三星的17%,其HBM3E产品成功使其成为英伟达AI GPU的供应商之一 [9] - 公司在2025年9月的季度报告中称,HBM业务营收已接近20亿美元,占公司总营收两位数比例,2025年全年HBM产量已售罄,2026年订单基本被预订一空 [9] - 美光于2025年6月开始交付HBM4样品,到第四季度宣布其样品运行速度超过每针11 Gbps,每堆栈吞吐量超过2.8 TB/s,预计2026年投入量产 [10] 三星电子的HBM追赶 - 三星在早期HBM领域落后,其12层HBM3E耗时18个月并通过多次尝试才达到英伟达的质量和性能标准,于2025年第三季度通过验证 [11] - 公司面临的关键挑战是试图将尖端的1c DRAM工艺应用于HBM导致良率问题,截至2025年7月试运行良率仅为65% [11] - 三星计划在2026年上半年开始量产HBM4,并于2025年第三季度开始向英伟达交付样品;公司与AMD深化合作,成为AMD MI450加速器HBM4的主要供应商 [12] HBM4市场竞争展望 - HBM4供应竞争非零和游戏,三家供应商都将尽力提供最高性能内存模块,能够克服技术挑战并实现规模化交付的企业将成为赢家 [14] - 2026年将是内存竞赛的决定性一年,率先实现量产的供应商将占据优势 [14]
HBM之争,升级