Workflow
压缩和内存管理技术
icon
搜索文档
内存压缩技术新突破,提高AI推理效率!
半导体芯闻· 2025-04-25 10:19
核心观点 - ZeroPoint Technologies与Rebellions合作开发下一代内存优化AI加速器 旨在通过硬件内存压缩技术显著提升AI推理性能并降低成本 计划2026年推出新产品 目标实现前所未有的代币/秒/瓦特性能水平[2][5] 技术合作与产品规划 - 两家公司基于ZeroPoint的内存压缩、压缩和内存管理技术开发AI加速器 通过增加内存带宽和容量优化基础模型推理工作流程[2] - 新产品计划于2026年发布 声称有望实现突破性代币/秒/瓦特性能水平[2] - 合作聚焦无损模型压缩 在保持准确性的同时减少模型尺寸和能耗[5] 技术原理与性能优势 - ZeroPoint基于硬件的内存优化引擎比软件压缩方法快1000倍 在纳秒级窗口内完成压缩/解压缩、数据聚合及内存管理三项操作[2][5] - 技术以64字节缓存行粒度运行 相比ZSTD等传统技术使用的4-128kB数据块更精细[5] - 可实现内存容量/带宽提升2-4倍 每瓦性能提高50% 总拥有成本大幅降低[5] - 测试显示软件压缩结合内联硬件解压缩已使LLM等应用的可寻址内存、带宽和代币/秒性能提升约50%[5] 市场影响与成本效益 - 100GB HBM的基座模型工作负载可等效150GB HBM运行 带来数十亿美元成本节省[5] - 技术为AI芯片制造商挑战NVIDIA主导地位提供基础 通过功率和成本效率创新参与全球竞争[5] - 内存中超过70%数据为冗余 无损压缩技术可显著提升数据中心效率[5] 行业技术背景 - Marvell和英特尔在HBM领域的进展已提升性能 但硬件加速内存压缩技术可带来进一步改进[5] - 内存优化技术预计从竞争优势发展为高性能推理加速器解决方案必备组件[5]