Workflow
Lepton
icon
搜索文档
我们还是低估了英伟达
美股研究社· 2025-09-18 11:33
文章核心观点 - 英伟达战略重心从自建云服务DGX Cloud转向平台化算力调度市场Lepton 以化解与云巨头的渠道冲突并掌控AI算力生态入口 [6][11][23] - 公司通过"卖芯片-投资客户-租回服务"模式构建自循环资金链 强化生态黏性并稳定市场价格预期 [13][17][18] - Lepton平台通过聚合跨云算力资源并统一软件栈 试图成为AI算力领域的"App Store" 掌握分配权与数据洞察能力 [21][26][27] 战略转型 - 2023年推出的DGX Cloud月租达36999美元 2024年底其所属的软件与服务收入达20亿美元年化规模 [6][8] - 2024年下半年云厂商大幅降价 AWS对H100和A100实例降价45% 导致DGX Cloud价格优势消失 [8] - 2025年公司不再将数十亿美元云支出承诺对齐DGX Cloud 其角色转为内部基础设施与研发用途 [6][11] - 2025年5月新上线Lepton平台 转型为算力调度市场 避免与AWS/Azure/GCP等云厂商直接竞争 [6][11][23] 生态构建模式 - 投资云服务商并优先供货:2023年向CoreWeave投资1亿美元并优先供应H100 GPU [13] - 租回算力协议:2025年9月与Lambda签订4年15亿美元租赁协议 租用1万台搭载自家GPU的服务器 [15] - 形成资金闭环:芯片销售即时确认收入 租赁支出分期摊销 最小化资产压力 [17] - 通过Nventures投资AI初创公司 绑定潜在算力需求客户 构建创业孵化器生态 [19] Lepton平台特性 - 不直接持有GPU库存 作为需求分发平台连接开发者与云服务商(包括AWS/Azure/CoreWeave等) [11][21] - 整合英伟达软件栈(NIM微服务/NeMo框架) 提供一致开发体验 [22] - 获得AWS和Azure等云巨头支持 通过平台接触额外算力需求 [23] - 实时观测算力任务类型、地域分布、GPU使用频率及价格弹性 辅助商业决策 [26] 市场影响 - 缓解渠道冲突:从直接竞争转为中立调度方 维持与云巨头的芯片销售合作关系 [11][23] - 锚定算力价格:英伟达回租行为变相为AI算力行情背书 稳定市场预期 [18] - 掌控价值链:无论客户选择哪家云服务商 最终依赖英伟达GPU和软件栈 [29] - 潜在挑战:中小云厂商担心客户关系与定价权被影响 推广仍需过程 [26]
我们还是低估了英伟达
投中网· 2025-09-18 06:33
文章核心观点 - 英伟达已从硬件供应商转型为算力平台和生态掌控者,通过Lepton平台实现AI算力市场的调度和分配,放弃与云巨头直接竞争转而构建中立入口,强化对AI产业链的控制[5][13][22][25] DGX Cloud退场原因 - 2023年推出时月租36999美元,主打高端算力租赁,2024年软件与服务收入达20亿美元年化水平[5][7] - 2024年下半年GPU供应缓解后,AWS等云厂商对H100/A100实例降价45%,价格优势消失[7] - 与亚马逊、微软、谷歌等核心芯片买家产生渠道冲突,可能推动后者加码自研芯片[9] - 客户将其作为临时方案,缺乏长期黏性,最终退回内部研发用途[9] Lepton平台战略定位 - 2025年5月上线,定位为GPU算力调度市场,不直接持有库存,连接需求方与云服务商[10][19] - 整合AWS、Azure及英伟达系云商(如CoreWeave),提供统一软件栈(NIM微服务/NeMo框架)[19][20] - 化解与云巨头竞争关系,转为中立平台,掌控算力需求入口[22][23] 英伟达生态构建策略 - 通过"卖芯片-投资-租回"循环:2023年投资CoreWeave 1亿美元,2025年与Lambda签订15亿美元四年租赁协议(含1万台GPU服务器)[15][16] - 财务操作优化:芯片销售即时确认收入,租金作为运营成本分期摊销,最小化资产压力[16] - 风险投资部门Nventures绑定AI初创公司,培育算力采购需求,构建生态闭环[17] 平台化野心与价值 - Lepton目标成为"AI算力App Store",通过调度权掌控合作伙伴生存空间[25] - 实时获取算力需求分布、GPU使用频率、价格弹性等数据,反哺商业决策[25] - 最终实现无需自建云设施,通过控制软件栈和入口层捕获全产业链价值[23][26]
英伟达一项业务,退居二线
半导体行业观察· 2025-09-13 02:48
DGX Cloud战略地位变化 - DGX Cloud从面向企业的核心AI云服务退居二线 大部分算力转为公司内部研究使用[1] - 2026财年第二季度财报中不再将数十亿美元云支出承诺归因于DGX Cloud 其角色转向内部基础设施而非市场竞争主力[4] DGX Cloud市场竞争力分析 - 2023年推出时定价为每月每个H100实例36,999美元 在GPU短缺背景下具有合理性[6] - 随着供应改善及AWS将H100与A100租赁价格削减高达45% DGX Cloud作为紧缺替代方案的价值大幅下降[6] Lepton新战略方向 - 战略重心转向Lepton GPU租赁市场 扮演算力需求路由角色而非直接采购转租[8] - 通过聚合模式连接AWS与Azure等合作伙伴 使公司成为AI云经济聚合器而非直接竞争者[8] - 新模式强化对全球GPU工作负载流向的掌控 同时减少与渠道伙伴冲突[10] 行业生态影响 - Lepton模式使中小型云厂商保留在公司生态体系中 通过技术栈和需求入口掌握话语权[8] - 开发者可在AWS或Azure等现有云服务中以更具竞争力价格获取GPU算力[10]
黄仁勋发力支持Agent、新设中国研发点,贾扬清Lepton被收购后现状曝光!
AI前线· 2025-05-19 09:11
人工智能基础设施与计算平台 - 英伟达CEO黄仁勋强调AI将成为像互联网和电力一样的基础设施,公司定位为AI基础设施核心提供商 [1] - 发布扩展版Blackwell平台Blackwell Ultra AI,重点提升推理性能 [4] - 推出Grace Blackwell GB300系统,推理性能提升1.5倍,HBM内存容量增加1.5倍,网络连接能力翻倍 [8] - GB300系统达40 PFLOPS,相当于2018年Sierra超级计算机性能,六年内性能提升4000倍 [9] - 预告Vera Rubin超级芯片性能是GB300的3.3倍,CPU内存容量是Grace的4.2倍,预计2026年下半年量产 [10] - 宣布推出NVLink Fusion技术,支持构建百万级GPU规模的AI工厂,兼容多种ASIC芯片 [11][13] AI技术演进方向 - 提出Agentic AI概念,具备目标拆解、方案思考、后果评估和执行计划的能力 [5] - Agentic AI本质是数字机器人,遵循"理解、思考、行动"的闭环 [6] - Physical AI可理解真实世界物理规律,是机器人革命基石 [8] - 开发GR00T-Dreams系统自动生成机器人训练视频,Isaac GR00T-Mimic工具扩展人类演示数据 [25][26] - 与DeepMind和Disney合作开发物理引擎Newton,计划7月开源,完全支持GPU加速 [26] - 更新类人机器人基础模型Isaac GR00T N1.5,提升环境适应能力和任务成功率 [28][29] 计算架构创新 - 开发量子经典计算平台,预测未来超级计算机将集成GPU、QPU和CPU [22] - 存储架构变革方向为将计算节点嵌入存储机架,前端配备GPU [22] - CUDA生态形成正向循环:安装量增长推动开发者创建更多库和应用 [21] - 采用COOS-L新工艺实现大规模芯片制造,开发7.2TB/s的NVLink交换机 [9] - 推出RTX Pro Enterprise全能服务器,支持多模态AI应用和游戏 [14] 产品布局与合作伙伴 - 将在中国台湾建立宇宙飞船风格办事处NVDIA Constellation [1] - 联合台积电、富士康在中国台湾建设AI超级计算机 [16] - Project DIGITS个人AI计算机DGX Spark全面投产,即将上市 [18] - 展示个人超级计算机DGX Station,可运行1万亿参数大模型 [18] - 推出Lepton平台连接开发者与全球GPU资源,合作伙伴包括CoreWeave、软银等 [19] - 云服务提供商已采纳Grace Blackwell系统,包括Twitter等平台 [8]