LPDDR内存

搜索文档
存储巨头,纷纷投靠台积电
半导体芯闻· 2025-09-24 10:47
如果您希望可以时常见面,欢迎标星收藏哦~ 来源:内容来自半导体芯闻综合。 美光科技,作为美国最大的电脑内存芯片制造商,因人工智能设备需求带动,给出了乐观的季度业 绩预期,其指出,下一代HBM内存将与台积电合作生产基础逻辑芯片。 公司周二发布声明称,本财年第一季度营收预计约为125亿美元,高于分析师平均预期的119亿美 元。扣除部分项目后,每股利润预计约为3.75美元,而市场此前预估为3.05美元。 这一前景证明了美光已成为AI投资的主要受益者。其高带宽存储器(HBM)是开发人工智能模型 所需芯片与系统的关键组成部分,这也使得该技术成为总部位于爱达荷州博伊西的美光极具盈利性 的产品。 值得关注的是,美光在财报会议上表示其HBM4 12-Hi DRAM 解决方案进展顺利,为了满足近期 不断增长的性能需求,该公司已生产并交付了迄今为止速度最快的 HBM4 解决方案的首批样品, 该解决方案提供超过 11 Gbps 的引脚速度和 2.8 TB/s 的带宽。他们表示,新的 HBM4 产品在性 能和效率方面应该超越所有竞争对手。 除了 HBM4,美光还谈到了下一代 HBM4E 内存。与完全基于自主研发的先进 CMOS 基础 ...
人工智能,需要怎样的DRAM?
半导体行业观察· 2025-06-13 00:40
人工智能系统中的DRAM类型 - 人工智能涉及高强度计算和海量数据,DRAM类型的选择取决于系统类型,包括CPU、GPU或专用加速器[1] - 同步DRAM(SDRAM)分为四类:DDR、LPDDR、GDDR和HBM,各有目标用途和优缺点[1] - DDR内存与CPU搭配使用,针对复杂指令集架构优化,具有最快延迟和64位数据总线[1] - LPDDR在保持高性能的同时降低功耗,采用多项节能技术如降低电源电压、温度补偿刷新率等[2][3] - GDDR配合GPU进行图形处理,带宽高于DDR但延迟也更高,容量是主要问题[4] - HBM具有非常宽总线的DRAM芯片堆栈,提供极高带宽,适合AI训练等数据密集型计算[4] 不同类型DRAM的应用场景 - 数据中心是HBM主要应用领域,尤其适合训练和超高速接口,但成本使其局限于云端[7] - HBM价格和能耗高,但在数据中心中与芯片成本相比增量无关紧要[7] - 二线厂商因产量不足难以获得HBM支持,需做出权衡[8] - DDR通常服务于数据中心中协调操作的CPU,而加速器依赖HBM和LPDDR[10] - LPDDR开始渗透到各种系统,可作为降低功耗的选择,甚至尝试堆叠创建穷人版HBM[14] - GDDR在AI系统中较少使用,处于HBM和LPDDR之间的尴尬位置[16] DRAM技术发展趋势 - LPDDR5X已上市且价格合理,LPDDR6预计今年年底上市,性能将有提升[18] - HBM4是下一代高带宽内存,带宽、通道数和数据总线宽度均翻倍,预计2026年上市[19] - 定制HBM成为新兴切入点,可替换标准逻辑基础芯片为专有功能芯片[8] - 混合内存方案日益流行,如DDR和LPDDR组合或HBM和LPDDR组合[8] - 所有DRAM标准源自JEDEC,不同类型有各自委员会推进发展[18] 系统设计考量 - 处理器和内存独立发展,未来总会有跨越式发展,需保持同步[21] - 高质量访问信号对高速运行至关重要,需考虑信号完整性[22] - 系统设计师需为特定系统选择最合适内存并确保系统能跟上[22] - LPDDR进入数据中心可降低功耗,但缺乏RAS功能和ECC支持[15] - GDDR适合图形相关生成算法,但容量限制可能成为障碍[16]