内存

搜索文档
HBF要火,AI浪潮的下一个赢家浮出水面:闪存堆叠成新趋势
36氪· 2025-09-23 11:37
三星HBM3E通过英伟达认证 - 三星12层HBM3E于9月19日通过英伟达测试认证 即将成为英伟达GPU的HBM供应商之一 [1] HBM行业竞争格局 - SK海力士2Q25存储芯片收入达122.29亿美元 环比增长25.8% 市场份额38.7%超越三星成为全球第一 [3] - 三星2Q25存储芯片收入103.5亿美元 环比增长13.7% 市场份额32.7% [3] - 美光2Q25收入69.5亿美元 环比增长5.7% 市场份额22% [3] - 南亚科技2Q25收入3.41亿美元 环比大幅增长56% [3] HBM技术局限性 - HBM3e单卡内存带宽达4.8TB/s 比DDR内存快数十倍但容量有限 [5] - HBM4单壳最高容量仅36GB(未来可达64GB) 而AI模型参数动辄千亿级 [5] - HBM成本极高导致单块GPU价格达数万美元 成为AI行业瓶颈 [5] HBF技术优势与发展 - HBF将NAND闪存堆叠 兼具高速读取和大容量特性 目标作为HBM的"容量补位" [6] - HBF针对AI推理读多写少特点设计 NAND写入短板不再致命 [9] - 闪迪与SK海力士联合开发HBF技术 推动行业标准化 [8] - 首批HBF样品预计2026年下半年推出 2027年初将有搭载HBF的AI推理设备面世 [12] HBF应用前景 - 在数据中心可缓解GPU内存瓶颈 让超大模型运行更高效 [15] - 在终端设备可支持本地运行更大AI模型 推动AI PC和AI手机发展 [13] - HBF基于NAND闪存 具有更高密度和更低单位容量成本 [15] AI模型存储需求 - Llama4 Behemoth模型参数达2万亿 Kimi K2达1万亿 Grok 4达1.7万亿 [10] - MoE模型减小算力要求但内存需求更加突出 [4]