AI大模型内存需求与HBF存储技术 - 随着AI大模型参数量和上下文长度增加,其对内存容量的要求不断提升,当前HBM容量已难以满足需求[1] - 英伟达Blackwell Ultra芯片配备8个HBM3E内存,容量为288 GB,带宽为8TB/s,但面对万亿参数、超128K上下文长度的大模型仍显不足[1] - 2025年8月,Sandisk公司与SK Hynix合作开发新型存储产品HBF,旨在满足AI大模型推理场景需求[2] - HBF计划采用BiCS和CBA晶圆键合工艺实现与GPU的高速互联[1][2] - 根据Sandisk官网,在研的HBF存储容量有望达到现有HBM的8-16倍,可将GPU存储容量扩展至4TB[1][2] - HBF在内存容量和传输速率上能很好满足AI大模型要求,推出后有望在推理任务中实现大规模应用[2] 数据基础软件发展潜力 - 在针对存储介质优化的数据基础软件领域,开发厂商包括华为、阿里等大型科技公司,以及星环科技、PingCAP等独立第三方公司[3] - 拥有数据库技术积累的公司,均有针对HBF存储介质开发数据基础软件的潜力[1][3] - 华为、阿里等公司因自研AI大模型存在较大数据处理需求,可能自研数据基础软件用于其AI模型的推理任务[3] - 星环科技、PingCAP等独立第三方公司的数据基础软件,或可用于智谱AI、MiniMax等公司大模型的推理任务[3] - 星环科技的分布式数据库ArgoDB已针对闪存存储硬件优化,内建细粒度编码格式,可充分发挥闪存高随机读写特性[4] - 基于现有技术积累,星环科技也有潜力开发基于HBF等其他存储介质的数据基础软件产品[4] 技术发展与市场应用前景 - HBF或成为满足AI大模型内存容量要求的最佳方案[2] - HBF相关产品研发需要一定周期和资源投入,星环科技相关产品仍需时间研发[4] - 相关产品的研发节奏也取决于公司的战略发展方向和重视程度[4] - 随着HBF相关技术成熟,相应产品在AI推理任务中有望大规模使用,从而推动相关数据基础软件的应用[4]
广发证券:HBF未来或成为满足AI大模型内存容量要求的最佳方案