高带宽闪存(HBF)
搜索文档
给HBF泼盆冷水
半导体行业观察· 2025-12-09 01:50
高带宽闪存(HBF)技术概述 - 高带宽闪存(HBF)技术正由闪迪和SK海力士推广和标准化,被视为GPU本地高带宽内存(HBM)的补充[2] - 英伟达作为最大的HBM买家和HBF重要潜在用户,尚未就HBF发表公开评论[2] HBF技术面临的挑战 - HBF面临三大障碍:GPU加速器工作温度高于NAND闪存耐久性;TLC和QLC NAND闪存的写入耐久性远不及DRAM,限制堆栈寿命;不同类型NAND闪存兼容性差,导致控制器供应商难以找到足够大的HBF控制器市场[2] 行业专家观点与市场展望 - 被誉为“HBM之父”的金正浩教授认为,在AI时代权力平衡正从GPU转向内存,内存角色愈发重要[4] - 金正浩预测HBF技术将在2026年初取得新进展,并在2027至2028年间正式亮相[4] - 在AI推理时代,内存容量至关重要,优化内存使用成为决定性能的关键因素,HBF被视为克服AI集群存储容量瓶颈的关键技术[4] - 金正浩认为HBF将与HBM一起成为下一代重要的内存技术,推动半导体制造商增长[4] - 金正浩大胆预测“HBM时代即将结束,HBF时代即将到来”[6] HBF技术原理与开发进展 - HBF与HBM概念相似,均利用硅通孔技术垂直堆叠芯片,但HBF采用NAND闪存,因此容量更大、成本更低[5] - 2025年8月,闪迪和SK海力士签署谅解备忘录,共同制定HBF技术规范并推动标准化,目标是在2026年下半年发布样品,预计首批采用HBF的AI推理系统于2027年初亮相[5] - 在2025年10月中旬的OCP全球峰会上,SK海力士发布了包含采用HBF技术的AIN B系列在内的全新“AIN系列”存储产品[5] - 三星电子已开始对其自主研发的HBF产品进行早期概念设计,计划利用其在类似高性能存储技术领域的研发经验来满足数据中心需求,但项目仍处早期阶段,详细规格和量产时间表未定[5] HBF在AI架构中的角色与未来愿景 - NAND闪存速度比DRAM慢,但容量是其十倍以上,通过堆叠数百甚至数千层,HBF可满足AI模型的海量存储需求,成为基于NAND闪存的HBM替代品[6] - 金正浩设想未来AI架构将采用多层内存层次结构:GPU内部SRAM如同桌面笔记本电脑,速度最快但容量最小;HBM如同附近书架,提供快速访问和计算;HBF如同地下图书馆,存储深层AI知识并持续向HBM提供数据;云存储则如同公共图书馆,通过光纤网络连接各数据中心[6] - 金正浩预见GPU将以互补配置集成HBM和HBF,标志着AI计算和内存融合的新时代[6]
HBF,想得太美
半导体行业观察· 2025-11-28 01:22
高带宽闪存(HBF)的技术概念与挑战 - 高带宽闪存(HBF)通过堆叠多层NAND芯片来创造前所未有的存储容量,但同时也带来了艰巨的工程挑战[1] - HBF的发展理念是利用成本更低的闪存为GPU提供更多内存,以补充高带宽内存(HBM),但闪存的访问速度比DRAM慢[1][4] 高带宽内存(HBM)的技术发展路线 - 当前HBM3E技术有8到16层堆叠,SK海力士的16层器件可提供48GB容量[3] - HBM4预计在2026年推出,容量为36/48GB,带宽将翻倍至2TB/s[3][4] - HBM5需要在DRAM堆叠层中使用超过4000个硅通孔(TSV)[3] - 根据路线图,HBM6至HBM8代将持续提升性能,HBM8(2038年)的数据传输速度预计达到32Gbps,带宽高达64TB/s[4] HBF的架构与容量潜力 - HBF架构将堆叠多层NAND芯片,每层芯片连接到底层逻辑芯片,再通过中介层将数据路由到GPU[4] - 一个12层HBF堆叠(使用238层3D NAND)总层数达2866层,容量为768GB[9] - 一个16层堆叠(使用321层3D NAND)总层数达5136层,容量很可能超过1TB[9] HBF面临的技术与商业化挑战 - HBF堆叠中多个3D-NAND芯片的连接将导致器件二维尺寸增大,并使中介层信号传输到GPU的复杂性显著增加[9][10] - GPU与HBM、HBF之间的连接需要复杂协调,行业主导厂商英伟达的深度参与至关重要[10] - 制定HBF标准至关重要,以便让多家供应商展开竞争,防止垄断定价,Sandisk和SK海力士正积极参与标准化工作[10] - HBF距离商业化应用预计还有两年或更长时间[10]
股价飙升15.31%!炸裂!闪迪业绩大超预期:净利暴涨300%、NAND卖断货!(附电话会议全文)
美股IPO· 2025-11-08 00:24
核心业绩表现 - 2026财年第一季度营收23亿美元,环比增长21%,同比增长23%,超出指引区间上限[3][4][5] - 非GAAP摊薄每股净利润1.22美元,较上季度0.29美元暴涨321%[3][4][5] - 非GAAP毛利率29.9%,环比提升350个基点[3][4][26] - 调整后自由现金流4.48亿美元,环比激增482%,同比暴涨399%[3][4][6] - 季度末净现金头寸9100万美元,较分析师日目标提前约6个月实现净现金为正[21][27] 终端市场表现 - 数据中心业务收入2.69亿美元,环比增长26%,超大规模客户认证积极推进[10][22][25] - 边缘计算业务收入13.87亿美元,环比增长26%,受Windows系统更新与设备容量升级驱动[10][11][25] - 消费级业务收入6.52亿美元,环比增长11%,任天堂Switch 2联名卡销量突破90万张[11][24][25] - 2026年数据中心预计将成为NAND最大应用市场,按EB计需求增长中40%[39][50][55] 技术与产能布局 - BiCS8技术本季度占总出货比特15%,预计2026财年末成为主力节点[13][14][22] - 与铠侠的合资框架锁定晶圆供应,成本与产能优势显著[13][15] - 资本支出聚焦BiCS8转产,总资本开支3.87亿美元,占营收16.8%[9][27][37] - 行业供给持续紧张,NAND需求预计持续高于供应至2026年底及以后[1][22][27][37] 财务指引与展望 - 第二季度营收指引25.5-26.5亿美元,主要受价格双位数上涨驱动[16][27][49] - 第二季度非GAAP摊薄每股收益指引3.00-3.40美元,较一季度实现翻倍增长[17][28] - 第二季度非GAAP毛利率指引41.0%-43.0%,较一季度提升超11个百分点[18][28] - 客户主动寻求长期供给承诺,供需格局出现结构性变化,可见度延伸至2027年[22][32][52]
再造一个HBM!
半导体芯闻· 2025-11-07 10:24
文章核心观点 - 存储市场正经历由AI需求驱动的罕见供需失衡,导致内存和NAND闪存价格飙升 [2] - 高带宽闪存(HBF)作为一种新兴技术,正推动NAND闪存从廉价存储向AI时代高价值核心组件转型,其发展路径与高带宽内存(HBM)相似 [2][19] - HBF技术旨在解决AI多模态、长上下文模型对庞大中间状态数据的存储需求,在DRAM的速度和NAND的容量之间找到平衡 [3] - 2026-2027年是HBF技术发展和市场格局形成的关键窗口期,各大内存厂商正采取不同策略进行布局 [19] HBF技术概述 - HBF是NAND版本的高带宽内存技术,通过将16层NAND堆栈通过逻辑芯片连接到中介层,再以多通道高带宽方式连接到GPU或其他处理器 [3] - 该技术依托闪迪的CBA技术构建,使用硅通孔实现层间互联,能匹配HBM的带宽,同时在相近成本下提供8至16倍的存储容量 [4] - HBF单芯片可达到4TB容量(由8颗512GB HBF芯片组成),足以容纳16位权重的GPT-4模型(1.8万亿参数,需3.6TB存储) [10] - 该技术为混合专家模型及多模态大模型的端侧部署提供了可能,一颗512GB HBF芯片即可承载640亿参数的MOE模型 [11] 主要厂商动态 SK海力士 - 公司在2025年OCP全球峰会上发布了包含HBF在内的"AIN Family"产品阵容,其中AIN B是采用HBF技术的产品 [5] - AIN系列从性能、带宽、容量三个维度进行优化,旨在同时提升数据处理速度和存储容量 [5] - AIN B通过垂直堆叠NAND来扩大带宽,核心是将高容量、低成本的NAND与HBM堆叠结构相结合 [6] - 公司已向清州M15X工厂运入首批设备,该工厂将重点量产下一代HBM产品,为HBF的未来部署奠定基础 [7] - 2025年8月,公司与闪迪签署了HBF标准化谅解备忘录,推动开放式生态策略 [12] 闪迪 - 公司计划于2026年下半年向客户提供HBF样本,并于2027年初为推理AI提供正式产品 [10] - 技术突破使得HBF无需依赖DRAM即可承载超大模型,得益于DeepSeek AI研究人员提出的"多头潜在注意力"技术,可将键值缓存压缩93% [10] - HBF可将芯片拆分为8个64GB迷你阵列,为MOE的8个专家子模型分别提供专属存储与数据通道 [11] - HBF负责人Ilkbahar曾担任英特尔Optane部门副总裁,此次选择与SK海力士合作推动标准化,避免重蹈Optane过于专有化的覆辙 [12] 铠侠 - 公司展现出务实和多元化的技术探索路径,既独立开发差异化方案,又能共享合作伙伴的技术积累 [13] - 2025年8月发布面向边缘服务器的高速闪存驱动器原型,采用串联连接的闪存"珠子",使用PCIe 6总线,实现5TB容量和64 GBps数据速率 [13] - 该原型通过相同的PCIe Gen 6总线从5TB容量提供高达64 GBps速度,总吞吐量约为美光9650 Pro的2.3倍 [14] - 应英伟达要求,公司正在开发一款1亿IOPS的SSD,预计2027年推出,将支持PCIe 7.0标准 [14] 三星 - 公司已启动自有HBF产品的早期概念设计工作,但产品规格和量产时间表仍未知,态度较为谨慎 [16] - 作为DRAM和NAND的双料冠军,公司在开发HBF产品时具备天然的协同优势 [16] - 公司在HBM市场的经验教训可能影响了其在HBF上的策略,倾向于采取"后发制人"的策略 [17][18] 市场背景与价格动态 - 存储市场供需失衡,内存短缺问题加剧,三星于10月暂停DDR5 DRAM合约定价,引发内存价格暴涨 [2] - 9月以来,512Gb TLC晶圆价格稳步攀升,10月下旬已达5美元,1Tb TLC/QLC晶圆价格触及6.5至7.2美元区间 [2] - NAND涨价的核心原因包括库存见底和HBF新技术的推动 [2]
再造一个HBM
36氪· 2025-11-06 03:18
存储市场供需状况 - 存储市场正经历罕见的供需失衡,内存短缺问题因云巨头资本支出扩大和AI需求挤压供应而加剧 [1] - 三星于10月暂停DDR5 DRAM合约定价,引发内存价格暴涨 [1] - 512Gb TLC晶圆价格在10月下旬达到5美元,1Tb TLC/QLC晶圆价格触及6.5至7.2美元区间 [1] HBF技术概述 - 高带宽闪存是一种NAND版本的高带宽内存技术,通过将16层NAND堆栈通过逻辑芯片连接到中介层,再以多通道高带宽方式连接到处理器 [2] - HBF能匹配HBM内存的带宽表现,同时在相近成本下提供8至16倍的存储容量 [3] - 该技术旨在解决AI多模态、长上下文模型需要维护庞大中间状态数据的问题,在DRAM的高速度和NAND的大容量间找到最优解 [2] 主要厂商HBF布局 SK海力士 - 公司发布"AIN Family"产品阵容,其中AIN B是采用HBF技术的产品,核心是将高容量、低成本的NAND与HBM堆叠结构相结合 [4][5] - AIN系列从性能、带宽、容量三个维度优化,计划于2026年底推出AIN P样品 [5] - 公司已向清州M15X工厂运入首批设备,将重点量产下一代HBM产品,并为HBF未来部署奠定基础 [6] - 2025年8月与闪迪签署HBF标准化谅解备忘录,推动生态系统发展 [11] 闪迪 - 计划于2026年下半年向客户提供HBF样本,2027年初为推理AI提供正式产品 [9] - 单块GPU搭载的HBF内存可达到4TB容量,由8颗512GB HBF芯片组成,足以容纳16位权重的GPT-4模型 [9] - 一颗512GB HBF芯片即可承载640亿参数的MOE模型,且可拆分为8个64GB迷你阵列,为专家子模型提供专属存储 [10] 铠侠 - 采用多路径探索策略,开发了采用菊花链连接方式的闪存驱动器原型,使用PCIe 6总线实现5TB容量和64 GBps数据速率 [12] - 正在开发一款1亿IOPS的SSD,预计2027年推出,将支持PCIe 7.0标准,两个SSD直接连接到英伟达GPU可提供总计2亿IOPS性能 [13] - 技术路径包括CXL连接的XL-Flash驱动器、菊花链连接的XL-Flash珠子,以及XL-Flash HBF实现方案 [13] 三星 - 已启动自有HBF产品的早期概念设计工作,但产品规格和量产时间表仍未知 [16] - 作为DRAM和NAND双料冠军,在3D NAND堆叠技术、TSV工艺、先进封装等领域有深厚积累,具备天然协同优势 [16][17] - 采取谨慎的后发策略,先观察竞争对手技术路线和客户反馈,再以更成熟方案进入市场 [18] HBF市场前景 - HBF为混合专家模型及多模态大模型的端侧部署提供可能,是典型的"内存受限型应用"核心适配场景 [10] - 2026-2027年被视为关键窗口期,四大厂商的博弈将决定新兴市场格局 [19] - HBF技术可能使NAND从廉价存储转型为高价值核心组件,复制HBM从配角到主角的发展路径 [19]
再造一个HBM!
半导体行业观察· 2025-11-06 01:17
存储市场供需状况 - 存储市场正经历罕见的供需失衡,AI需求挤压供应导致内存短缺加剧,三星于10月暂停DDR5 DRAM合约定价引发内存暴涨 [1] - NAND闪存价格显著上涨,9月以来512Gb TLC晶圆价格稳步攀升,10月下旬达5美元,1Tb TLC/QLC晶圆价格触及6.5至7.2美元区间 [1] - NAND涨价核心原因包括库存见底及新兴技术高带宽闪存(HBF)的推动,HBF可能为NAND开启类似HBM的“封神之路” [1] 高带宽闪存(HBF)技术概览 - HBF是NAND版本的高带宽内存技术,通过将16层NAND堆栈通过逻辑芯片连接到中介层,再以多通道高带宽方式连接到GPU或其他处理器 [3] - 该技术旨在解决AI多模态、长上下文应用需在内存中维护庞大中间状态数据的问题,在DRAM高速但高成本与NAND大容量但慢速间找到最优解 [3] - HBF依托闪迪CBA技术构建,逻辑芯片与3D NAND堆叠层键合,通过类HBM的硅通孔实现层间互联,能匹配HBM带宽并在相近成本下提供8至16倍存储容量 [3] 主要厂商HBF技术布局 SK海力士 - 在2025年OCP全球峰会发布包含HBF的“AIN Family”产品阵容,其中AIN B是采用HBF技术的产品,核心是将高容量、低成本NAND与HBM堆叠结构结合 [6][7] - AIN系列从性能、带宽、容量三个维度优化,AIN P专注于AI推理环境高效处理海量数据读写,计划2026年底推出样品;AIN D目标是以低功耗、低成本存储大容量数据 [6][7] - 公司已向清州M15X工厂运入首批设备,该工厂将重点量产下一代HBM产品,HBM产能扩张为HBF未来部署奠定基础 [8] - 2025年8月与闪迪签署HBF标准化谅解备忘录,推动开放式生态策略 [12] 闪迪 - 宣布激进HBF推进计划,将于2026年下半年提供样本,2027年初为推理AI提供正式产品 [9] - 技术突破在于无需依赖DRAM即可承载超大模型,单块GPU搭载的HBF内存可达4TB容量,足以容纳16位权重的GPT-4模型 [10] - HBF为混合专家模型及多模态大模型端侧部署提供可能,一颗512GB HBF芯片可承载640亿参数的MOE模型,并拆分为8个64GB迷你阵列为专家子模型提供专属存储 [11] 铠侠 - 采取多路径探索策略,既独立开发差异化方案又能共享合作伙伴技术积累 [13] - 2025年8月发布面向边缘服务器的高速闪存驱动器原型,采用串联连接闪存“珠子”及菊花链连接方式,使用PCIe 6总线实现5TB容量和64 GBps数据速率 [13] - 原型总吞吐量约为美光9650 Pro的2.3倍,按每通道计算高出约14%,公司正应英伟达要求开发1亿IOPS的SSD,预计2027年推出 [14][15] 三星 - 已启动自有HBF产品早期概念设计工作,但产品规格和量产时间表仍未知,开发处于早期阶段,态度谨慎 [17] - 作为DRAM和NAND双料冠军,在3D NAND堆叠、TSV工艺、先进封装等领域有深厚积累,具备开发HBF的天然协同优势 [17][18] - 在HBM市场的教训可能影响其HBF策略,倾向于采取“后发制人”策略,先观察竞争对手技术路线和客户反馈再以成熟方案进入市场 [18][19] 行业趋势与展望 - NAND正经历从廉价存储到高价值核心组件的转型,与HBM崛起路径相似,均源于AI需求爆发及传统架构突破 [20][21] - 2026-2027年为关键窗口期,四大阵营的博弈将决定HBF新兴市场格局,这是关于未来AI基础设施话语权的争夺战 [21]
闪迪联手SK海力士,发力新型HBM
半导体行业观察· 2025-08-08 01:47
HBF技术合作与标准化 - Sandisk与SK海力士合作标准化高带宽闪存(HBF),旨在通过NAND堆叠与TSV连接技术实现GPU快速访问,速度比SSD快几个数量级[1] - HBF技术目标为提供与HBM相当的带宽(1.2TBps),同时以相似成本实现8-16倍容量(最高768GB),并保持非易失性存储特性[4][6] - 双方签署谅解备忘录(MoU)推动技术规范标准化,SK海力士将自主研发生产HBF,Sandisk强调多供应商市场对保障供应链的重要性[3][4] 技术优势与行业影响 - HBF采用类似HBM的封装结构,首次实现闪存与DRAM级带宽融合,可显著降低AI工作负载的能耗与发热问题[6][8] - 相比HBM3E的48GB容量,HBF潜在容量提升8-16倍,而SK海力士PCIe Gen5 SSD带宽仅为HBM3E的1/86(14GBps vs 1.2TBps)[3][6] - 该技术契合边缘计算趋势,能解决AI数据中心冷却预算极限问题,适用于手持设备至服务器全场景部署[5][6] 商业化进程与生态建设 - Sandisk计划2026年下半年推出HBF样品,2027年初上市首批AI推理设备,技术已获2025闪存峰会"最具创新技术"奖[5][9] - 成立技术顾问委员会推动跨行业标准制定,采用BiCS NAND与CBA晶圆键合技术,可能涉及与Kioxia的CMOS工艺合作[9][10] - 行业推测SK海力士与Nvidia的现有合作关系可能加速HBF采用,三星等厂商也在开发类似技术如PBSSD和HBM4[8][9] 技术架构创新 - HBF通过NAND替代部分DRAM堆栈,牺牲延迟换取容量优势,相比传统HBM节省恒定功耗需求[6][8] - 架构灵感来源于"闪存中的LLM"研究论文,通过SSD作为额外内存层缓解DRAM压力的思路[8] - 可能推动DRAM、闪存与新型持久内存的异构堆栈共存,为超大规模计算提供HBM成本替代方案[10]