Workflow
AIN系列存储产品
icon
搜索文档
给HBF泼盆冷水
半导体行业观察· 2025-12-09 01:50
高带宽闪存(HBF)技术概述 - 高带宽闪存(HBF)技术正由闪迪和SK海力士推广和标准化,被视为GPU本地高带宽内存(HBM)的补充[2] - 英伟达作为最大的HBM买家和HBF重要潜在用户,尚未就HBF发表公开评论[2] HBF技术面临的挑战 - HBF面临三大障碍:GPU加速器工作温度高于NAND闪存耐久性;TLC和QLC NAND闪存的写入耐久性远不及DRAM,限制堆栈寿命;不同类型NAND闪存兼容性差,导致控制器供应商难以找到足够大的HBF控制器市场[2] 行业专家观点与市场展望 - 被誉为“HBM之父”的金正浩教授认为,在AI时代权力平衡正从GPU转向内存,内存角色愈发重要[4] - 金正浩预测HBF技术将在2026年初取得新进展,并在2027至2028年间正式亮相[4] - 在AI推理时代,内存容量至关重要,优化内存使用成为决定性能的关键因素,HBF被视为克服AI集群存储容量瓶颈的关键技术[4] - 金正浩认为HBF将与HBM一起成为下一代重要的内存技术,推动半导体制造商增长[4] - 金正浩大胆预测“HBM时代即将结束,HBF时代即将到来”[6] HBF技术原理与开发进展 - HBF与HBM概念相似,均利用硅通孔技术垂直堆叠芯片,但HBF采用NAND闪存,因此容量更大、成本更低[5] - 2025年8月,闪迪和SK海力士签署谅解备忘录,共同制定HBF技术规范并推动标准化,目标是在2026年下半年发布样品,预计首批采用HBF的AI推理系统于2027年初亮相[5] - 在2025年10月中旬的OCP全球峰会上,SK海力士发布了包含采用HBF技术的AIN B系列在内的全新“AIN系列”存储产品[5] - 三星电子已开始对其自主研发的HBF产品进行早期概念设计,计划利用其在类似高性能存储技术领域的研发经验来满足数据中心需求,但项目仍处早期阶段,详细规格和量产时间表未定[5] HBF在AI架构中的角色与未来愿景 - NAND闪存速度比DRAM慢,但容量是其十倍以上,通过堆叠数百甚至数千层,HBF可满足AI模型的海量存储需求,成为基于NAND闪存的HBM替代品[6] - 金正浩设想未来AI架构将采用多层内存层次结构:GPU内部SRAM如同桌面笔记本电脑,速度最快但容量最小;HBM如同附近书架,提供快速访问和计算;HBF如同地下图书馆,存储深层AI知识并持续向HBM提供数据;云存储则如同公共图书馆,通过光纤网络连接各数据中心[6] - 金正浩预见GPU将以互补配置集成HBM和HBF,标志着AI计算和内存融合的新时代[6]