SRAM是什么?和HBM有何不同?
半导体芯闻·2026-01-04 10:17
文章核心观点 - 英伟达以200亿美元取得Groq的LPU技术授权,凸显了SRAM在AI时代,特别是低延迟即时推论应用中的关键作用,使其从配角跃升为主角[1][6] - AI市场需求正从训练转向即时推论,对低延迟的需求使得高速、低延迟的SRAM成为新的产业焦点,与负责大容量高带宽的HBM形成互补[1][4][6] SRAM与HBM的技术特性与角色 - SRAM是一种高速、低延迟(奈秒等级)的静态随机存取记忆体,特点包括速度极快、功耗低、不需刷新,但面积大、每比特成本高,主要用作晶片内部的高速暂存区以实现即时运算[3] - HBM是一种采用3D堆叠与矽穿孔技术的进阶型DRAM,特点为频宽极高(可达上TB/s)、容量大、功耗较传统DRAM低,但延迟高于SRAM,主要用作AI GPU等的大容量记忆体仓库以高速供给资料[3][4] - 两者角色明确:SRAM负责“快”,HBM负责“多”,共同决定了AI晶片的运算速度与能力边界[4] SRAM成为市场新焦点的原因 - AI发展进入新阶段,市场需求从“训练能力”转向“即时推论能力”,如即时语音助理、金融交易、自驾系统等,这些应用最忌惮高延迟,而低延迟正是SRAM的核心优势[6] - 英伟达斥巨资取得Groq的LPU技术授权,其关键在于LPU性能依赖于极端高速、低延迟的记忆体存取,这正是SRAM不可替代的领域,此举旨在补强英伟达在极致低延迟推论架构设计上的短板[1][6] - Groq的技术价值在于利用大量SRAM结合简化控制逻辑,实现比GPU更可预测、更即时的AI回应,适用于AI Agent、机器人控制等场景,从而提升了SRAM的战略地位[6]