Workflow
NVIDIA Vera Rubin NVL144 CPX
icon
搜索文档
7100亿,黄仁勋梭哈了
创业家· 2025-09-27 10:08
以下文章来源于投中网 ,作者蒲凡 投中网 . 投中网是领先的创新经济信息服务平台,拥有立体化传播矩阵,为创新经济人群提供深入、独到的智识 和洞见,在私募股权投资行业和创新商业领域拥有权威影响力。官网:www.chinaventure.com.cn 扎到钱最多的地方去。 这里插播一条课程资讯: 报名 「 黑马·消费崛起精选课 」 ,10月17日-19日 , 用 3天时间拆解中日消费企业突围逻 辑:从 索尼、无印良品、优衣库 学产品创新与供应链管理,还有中国新消费冠军实战分享, 想破增长瓶颈、出海避坑、摆脱同质化的创始人/CEO千万不要错过。 来 「 黑马·消费崛起精选课 」, 向中日消费冠军学习产品创新和品牌出海。 作者: 蒲凡 来源: 投中网 在金庸武侠世界里,有一门神奇的武功,叫梯云纵。 它是武当派的轻功绝学,名门正朔,高深莫测,身躯 " 微一转折 " 就可以 " 纵起丈余 " ,在 《倚天屠龙记》里先后被武当七侠和张无忌完美展示,可以说浑身闪耀着主角光环。然而由于 梯云纵的施展方式过于违反物理定律,全程靠 " 左脚踩右脚、右脚踩左脚、借(自己的)力使 (自己的)力 " 来腾空,这个画面又被朱茵版《射雕英雄 ...
国泰海通:下一代英伟达Rubin CPX内存升级
格隆汇· 2025-09-11 23:15
行业趋势 - 供应商陆续推出AI高端芯片 内存升级助力DRAM量价齐升 [1][3] - 2024年Server DRAM单机平均容量年增17.3% [3] - AI服务器需求持续增加 云端服务业者自研ASIC陆续推出或开始量产 [3] 英伟达新产品 - 下一代英伟达旗舰AI服务器NVIDIA Vera Rubin NVL144 CPX集成36个Vera CPU和144块Rubin GPU [2] - 单个机架提供100 TB高速内存和1.7 PB/s内存带宽 [2] - 搭载Rubin CPX的Rubin机架处理大上下文窗口性能比当前旗舰机架GB300 NVL72高最多6.5倍 [2] - Rubin CPX专门针对"数百万tokens"级别长上下文性能优化 具备30peta FLOPs NVFP4算力和128 GB GDDR7内存 [2] 技术架构 - 英伟达在硬件层面分拆AI推理计算负载:上下文阶段属于计算受限 需要高吞吐量处理能力 [2] - 生成阶段属于内存带宽受限 依赖高速内存传输和高带宽互联 [2] 企业动态 - 开普云拟通过发行股份方式购买深圳金泰克持有的南宁泰克30%股权 [3] - 深圳金泰克将其存储产品业务的经营性资产转移至南宁泰克 [3] - 开普云拟收购南宁泰克70%股权 [3]
国泰海通:供应商陆续推出AI高端芯片 内存升级助力DRAM量价齐升
智通财经网· 2025-09-11 22:51
英伟达下一代Rubin CPX技术特点 - 英伟达下一代Rubin CPX在硬件层面分拆AI推理计算负载 内存升级提供更高速传输[1][2] - NVIDIA Vera Rubin NVL144 CPX集成36个Vera CPU和144块Rubin GPU及144块Rubin CPX GPU 单个机架配备100TB高速内存和1.7PB/s内存带宽[2] - Rubin机架处理大上下文窗口性能比当前旗舰GB300 NVL72机架高最多6.5倍[2] - 上下文阶段属计算受限 需高吞吐量处理能力分析输入数据生成首个输出token 生成阶段属内存带宽受限 依赖高速内存传输维持逐个token输出性能[2] - Rubin CPX针对数百万tokens级别长上下文性能优化 具备30peta FLOPs NVFP4算力和128GB GDDR7内存[2] 存储行业发展趋势 - DRAM及NAND Flash在智能手机 服务器 笔电的单机平均搭载容量均增长 服务器领域增幅最高 2024年Server DRAM单机平均容量年增17.3%[1][4] - AI服务器需求持续增加 高端芯片如英伟达Rubin及云端服务业者自研ASIC推出或量产 推动高速运算DRAM产品量价齐升[1][4] 开普云业务动态 - 开普云拟通过发行股份收购深圳金泰克持有的南宁泰克30%股权 同时深圳金泰克将存储产品业务经营性资产转移至南宁泰克[3] - 公司拟收购南宁泰克70%股权 交易对方深圳金泰克将其存储产品业务经营性资产转移至南宁泰克[3]
英伟达新GPU突袭,性能拉爆当前旗舰
36氪· 2025-09-11 01:13
产品发布与性能 - 英伟达推出专为长上下文工作负载设计的专用GPU Rubin CPX 用于翻倍提升AI推理运算效率 特别是编程和视频生成等超长上下文窗口应用 [1] - Rubin CPX是首款专为处理数百万级别tokens并进行AI推理的模型构建的芯片 [1] - 搭载Rubin CPX的Rubin机架在处理大上下文窗口时性能比当前旗舰机架GB300 NVL72高出最多6.5倍 [3] - 下一代旗舰机架NVIDIA Vera Rubin NVL144 CPX提供8 exaFLOPs的NVFP4算力 比GB300 NVL72高出7.5倍 [5] - 单个机架提供100TB高速内存和1.7PB/s的内存带宽 [5] - Rubin CPX具备30 petaFLOPs的NVFP4算力和128GB GDDR7内存 专门针对数百万tokens级别长上下文性能优化 [10] 技术架构与创新 - 公司将AI推理计算过程拆分为上下文与生成两个阶段 分别由两块GPU运算 [1] - 上下文阶段属于计算受限 需要高吞吐量处理能力摄取并分析大量输入数据以生成首个输出token [8] - 生成阶段属于内存带宽受限 依赖高速内存传输和高带宽互联维持逐个token输出性能 [8] - 通过分离式处理两个阶段并针对性优化计算与内存资源 显著提升算力利用率 [8] - 下一代旗舰服务器集成36个Vera CPU、144块Rubin GPU和144块Rubin CPX GPU [1] 商业价值与应用场景 - 部署价值1亿美元的新芯片将能为客户带来50亿美元收入 [5] - 大约20%的AI应用需要等待首个token出现 例如解码10万行代码可能需要5-10分钟 [10] - 视频生成应用中预处理和逐帧嵌入会迅速增加延迟 导致当前视频大模型通常仅用于制作短片 [10] - 公司计划以两种形式提供Rubin CPX:与Vera Rubin同装一个托盘 或单独出售整机架CPX芯片匹配Rubin机架 [10] 产品路线图 - Rubin是公司将在明年发售的下一代顶级算力芯片 基于Rubin的CPX预计到2026年底出货 [1]
英伟达:Rubin CPX登场,要和博通ASIC“掰掰手腕”
36氪· 2025-09-10 11:23
博通ASIC进展与市场影响 - 博通财报发布当天股价上涨近10% 英伟达和AMD分别下跌3%和6% [1] - 博通第四位客户的百亿订单引发ASIC抢占AI核心芯片市场的预期 [2] - 博通在AI芯片市场份额已达近10% 超越英特尔和AMD [2] - 博通当前拥有3个量产客户和4个潜在客户 潜在客户量产将带来增量收入 [2] 英伟达Rubin CPX GPU产品特性 - 英伟达推出专为海量上下文处理设计的Rubin CPX GPU [4] - 算力达30 PFLOPS(NVFP4精度) 配备128GB GDDR7内存 [5] - 注意力机制速度比GB300 NVL72系统快3倍 [5] - 计划2026年底推出 常规Rubin GPU之后上市 [5] - 可与Vera CPU和Rubin GPU协同工作 形成高性能分解式服务解决方案 [7] - Vera Rubin NVL144 CPX集成36个Vera CPU、144块Rubin GPU和144块CPX GPU [7] - 提供8 EFLOPs NVFP4算力 是GB300 NVL72的7.5倍 [7] - 单机架提供100TB高速内存和1.7 PB/s内存带宽 [7] - 每投资1亿美元可获得50亿美元token收益 [8] 产品定位与市场竞争 - Rubin CPX专用于上下文和预填充计算 Rubin/Rubin Ultra负责生成阶段计算 [10] - 上下文阶段限制点在计算能力 生成阶段限制点在内存带宽 [10] - CPX采用GDDR7内存而非HBM内存 满足上下文阶段需求 [10] - 英伟达通过GPU+专用GPU搭配实现优化 [10] - 产品主要面向核心云厂商等大型公司 与ASIC目标客群重合 [12] - 是对博通ASIC竞争的直接回应 [12][14] - ASIC凭借成本优势与核心云厂商绑定合作 博通已拥有7家客户/潜在客户包括谷歌、Meta、字节等 [14] - 博通百亿订单和甲骨文合同价值飙涨3000亿 显示美国大厂资本开支提升 [14] 行业发展趋势 - AI需求旺盛推动整个市场规模扩大 [14] - GPU与ASIC之争涉及未来市场份额分配 [14]