Workflow
Virtual VRAM虚拟显存扩展卡
icon
搜索文档
第四范式(06682)发布“Virtual VRAM”虚拟显存扩展卡 GPU资源利用率实现突破
智通财经网· 2025-09-30 01:39
行业背景与痛点 - 在AI大模型迅速发展的背景下,GPU显存容量成为制约模型训练与推理效率的关键瓶颈[1] - 市场存在对高效、低成本扩展显存资源的迫切需求,具体表现为单卡运行时显存不足以及轻负载场景下“一模型一卡”部署形态导致的资源闲置[1] - 传统GPU显存容量固定且扩展成本高昂,限制了AI模型规模的扩大与多任务并发能力,用户通常需购置更高端显卡或多卡并行,导致投入成本急剧上升[1] 公司产品解决方案 - 公司正式推出“Virtual VRAM”可插入式虚拟显存扩展卡,该产品通过将物理内存转化为可动态调度的显存缓冲池,实现GPU算力资源的弹性扩展[1] - 产品创新性地构建了显存与内存之间的高速数据通道,将内存虚拟为显存使用,从而在不大幅变更硬件结构的前提下突破显存容量限制[1] - 单张显卡在使用该扩展卡后,虚拟显存容量最高可扩展至256GB,以NVIDIA H20显卡为例,其原生显存为96GB,扩展后相当于10张NVIDIA RTX 4090或6张NVIDIA A100的物理显存容量[2] 产品应用场景与优势 - 产品主要面向两大应用场景:一是在大模型单卡运行显存不足时,通过调用内存资源继续完成任务,避免采购额外显卡以显著降低成本;二是在轻负载场景中,将多个模型部署于同一GPU,实现资源动态调度,解决资源闲置问题[2] - 产品具备高度兼容性与部署便利性,支持物理机、Docker容器及Kubernetes等云原生环境,用户无需修改现有代码或重新编译即可实现即插即用,大幅降低部署复杂度和二次开发成本[2] - 用户无需更换硬件,即可在接近原生大显存性能的状态下运行更大规模的AI训练与推理任务[2] 市场前景与公司计划 - 随着AI模型数量与参数规模持续高速增长,显存容量已成为制约企业AI能力构建与成本控制的关键因素[3] - 公司此次发布的新产品有望为企业提供更具性价比的算力扩展方案,帮助用户在保持高性能的同时进一步实现降本增效[3] - 公司未来计划与更多内存厂商展开合作,持续推动AI基础设施的优化与普及[3]
第四范式发布“Virtual VRAM”虚拟显存扩展卡 GPU资源利用率实现突破
智通财经· 2025-09-30 01:39
据第四范式联合创始人、首席科学家陈雨强介绍,单张显卡在使用该扩展卡后,虚拟显存容量最高可扩 展至256GB。以NVIDIA H20显卡为例,其原生显存为96GB,扩展后相当于10张NVIDIA RTX4090或6 张NVIDIA A100的物理显存容量。用户无需更换硬件,即可在接近原生大显存性能的状态下,运行更 大规模的AI训练与推理任务。 在AI大模型迅速发展的背景下,GPU显存容量正成为制约模型训练与推理效率的关键瓶颈。单卡运行 时显存不足,又或是轻负载场景中一模型一卡的部署形态,无不反映出市场对高效、低成本扩展显存资 源的迫切需求。 近日,第四范式(06682)正式推出了"Virtual VRAM"可插入式虚拟显存扩展卡,该产品通过将物理内存 转化为可动态调度的显存缓冲池,实现了GPU算力资源的弹性扩展。第四范式创始人戴文渊,第四范式 联合创始人、首席科学家陈雨强出席发布活动。 传统GPU显存容量固定且扩展成本高昂,限制了AI模型规模的扩大与多任务并发能力。用户往往只能 通过购置更高端显卡或多卡并行来缓解压力,导致投入成本急剧上升。第四范式的"Virtual VRAM"创新 性地构建了显存与内存之间的高 ...