Vera CPU

搜索文档
CoWoS产能有望超预期 小摩维持台积电(TSM.US)“增持“评级
智通财经· 2025-09-23 08:54
(原标题:CoWoS产能有望超预期 小摩维持台积电(TSM.US)"增持"评级) 智通财经APP获悉,摩根大通台积电(TSM.US)维持"增持"评级,目标价1275元新台币。小摩指出,台积 电CoWoS产能预计将在2026年底达到9.5万片/月(12英寸晶圆等效),2027年底进一步攀升至11.2万片/ 月,较此前预期显著提升。 小摩指出,这一扩张主要得益于AP8工厂按计划推进的产能建设(预计2026年中投产),以及英伟达、 博通和AMD等关键客户需求的持续增长。 值得注意的是,从2026年下半年开始,非AI产品(如Venice CPU、Vera CPU)的全栈CoWoS封装订单将开 始向OSAT合作伙伴(主要是日月光)转移,标志着台积电将更专注于CoW(Chip-on-Wafer)环节的产能分 配,而oS(on-Substrate)环节将继续由日月光承担。 博通成为增长最快客户 博通2026年CoWoS分配量预计达18.5万片,同比增长93%,主要受谷歌TPU项目需求驱动。摩根大通预 计2026年TPU出货量将达250万台(同比增长38%),同时Meta首款CoWoS基ASIC(Athena)和OpenAI ...
英伟达重金入股英特尔:一笔不可思议的投资
21世纪经济报道· 2025-09-21 11:48
合作概述 - 英伟达与英特尔宣布达成合作 共同开发AI基础设施及个人计算产品 同时英伟达以每股23.28美元价格向英特尔普通股投资50亿美元 [2] - 合作包括三大领域:使用英伟达NVLink技术实现CPU与GPU无缝互联 英特尔为英伟达AI平台定制x86架构CPU 英特尔推出集成英伟达RTX GPU芯粒的全新x86 SoC面向PC消费市场 [6] 市场反应与估值影响 - 英特尔股价在合作宣布后瞬间拉升近30% 市值达到1295亿美元 今年涨幅47.53% [6] - 合作使英特尔获得AI产业链核心玩家的订单和生态背书 估值逻辑从传统CPU供应商跃升为AI基础设施重要参与者 [10][11] 战略意义与协同效应 - 对英特尔而言 50亿美元投资改善现金流 同时获得英伟达客户身份 直接嵌入英伟达产品体系 [10] - 英特尔将基于英伟达NVLink技术开发定制化数据中心CPU 可能成为英伟达系统级解决方案标配 [10] - 潜在代工合作机会:英伟达可能将部分CPU或GPU芯粒交由英特尔代工 分散供应链风险并为英特尔带来实质性订单 [11] - 对英伟达而言 可借助英特尔成熟x86生态在PC领域加速渗透 覆盖年营收近500亿美元的市场(数据中心CPU市场250亿美元 笔记本电脑年销售1.5亿台) [12] 技术整合与生态融合 - 合作重点包括基于NVLink技术实现CPU与GPU深度协同 针对数据中心和高端客户端市场优化 [14] - 英伟达通过合作将x86架构扩展到支持NVLink 72扩展(原仅支持PCIe接口) 实现GPU生态、Arm生态和x86生态交融 [16] - 英伟达明确表示不影响自有Arm产品路线图 包括下一代Vera CPU和基于Arm的Thor处理器、N1处理器开发 [16] 行业竞争格局影响 - 合作对AMD形成直接竞争压力 AMD原本凭借CPU-GPU协同方案在数据中心市场取得突破 [14] - Arm阵营在云计算和AI加速芯片领域面临新竞争 尽管云巨头自研芯片策略使市场竞争维度复杂化 [15] - AI基础设施竞争转向全栈整合 包括CPU、GPU、网络、内存及软件生态的综合较量 [16] 政府角色与投资背景 - 美国政府8月入股英特尔 但英伟达CEO黄仁勋强调特朗普政府未参与此项合作 合作只关乎技术与产品 [8]
英伟达356亿投资英特尔,一场各怀心思的「巨头联姻」
36氪· 2025-09-19 09:58
投资合作概况 - 英伟达向英特尔投资50亿美元(折合人民币356亿元)以每股23.28美元收购英特尔股票 [5] - 合作消息公布后英特尔股价盘前交易一度大涨30% 创近一年最高点 [9] - 双方技术团队已开展近一年架构设计讨论 英特尔为合作加速调整企业文化 [14] 市场拓展计划 - 英伟达将NVLink技术引入英特尔体系 助其拓展规模300亿美元的数据中心CPU市场 [11][12] - 英特尔通过Chiplets芯粒方式整合英伟达GPU 共同开发年出货量1.5亿台、规模超200亿美元的笔记本电脑集成显卡市场 [12] - 双方瞄准年规模合计近500亿美元的新兴市场 [10][15] 技术合作细节 - 英特尔CPU因采用PCIe连接无法支持NVLink 在数据中心市场缺乏竞争力 [11] - 合作后英伟达基于ARM架构的CPU产品(Vera/Grace/Thor/N1)将继续维持 不会受架构影响 [16] - 芯片生产仍由台积电主导 但会对英特尔先进制程进行资质认证评估 [16] 战略与政治背景 - 英特尔近年面临AMD技术超越、制程落后台积电两代、巨额亏损及量产延期等挑战 [8][19] - 美国政府通过89亿美元股权投资(占股9.9%)及超100亿美元资金支持扶持英特尔 [23][24] - 英伟达面临中美芯片管控压力 需通过特供芯片利润分成15%等方式维持中国市场 [25] - 合作被视作英伟达平衡商业利益与地缘政治风险的战略举措 [25][26][30] 企业财务状况 - 英伟达2026财年第二季度末现金及现金等价物达567.9亿美元 具备雄厚投资实力 [28] - 英特尔近期经历全球裁员、CEO更替、制程延期及2025年第二季度巨额亏损等困境 [8]
英伟达356亿投资英特尔,一场各怀心思的“巨头联姻”
36氪· 2025-09-19 01:58
投资合作概述 - 英伟达向英特尔投资50亿美元 折合人民币356亿元 以每股23.28美元收购英特尔股票 [1] - 双方合作旨在开拓年规模近500亿美元的市场 包括数据中心CPU和集成显卡笔记本电脑领域 [3][4] - 技术团队已开展近一年架构设计讨论 英特尔为合作加快企业节奏调整 [4] 技术协同与市场扩展 - 英伟达将NVLink技术引入英特尔体系 帮助英特尔拓展300亿美元规模的数据中心CPU市场 [3] - 英特尔通过Chiplets芯粒技术整合英伟达GPU 开拓年出货量1.5亿台、规模超200亿美元的集成显卡笔记本电脑市场 [3] - 合作不影响英伟达现有ARM架构产品线 Vera/Grace/Thor/N1等CPU研发继续推进 [5] 战略与政治背景 - 英特尔近年错失移动芯片/GPU/AI投资机遇 面临AMD竞争和代工业务亏损 此次合作带动其股价盘前大涨30% [7] - 美国政府以每股20.47亿美元收购英特尔9.9%股权成为最大股东 累计资金支持超100亿美元 [9][10] - 英伟达面临芯片出口管制压力 通过投资英特尔平衡商业利益与政治压力 [11][12] 制造与架构承诺 - 英伟达维持与台积电的代工合作 同时对英特尔先进制程进行资质评估 [5] - 合作不改变英伟达ARM架构战略 双方技术拓展为并行非替代关系 [5] 财务与资源基础 - 英伟达2026财年第二季度末现金及等价物达567.9亿美元 具备雄厚投资实力 [13] - 投资被评估为未来回报可观的价值型投资 [13]
英伟达Rubin的液冷新方案?
傅里叶的猫· 2025-09-16 15:57
以下文章来源于More Than Semi ,作者猫叔 More Than Semi . More Than SEMI 半导体行业研究 从昨天开始,大家都在讨论英伟达Rubin的这个新的液冷方案,热度非常高。盘中JS科技因为3d打印微 通道液冷板送样的消息一度还涨停了.. 但其实这件事几天就有媒体在报道了,我们星球中三天前就发过这个信息,只是当时市场对这个讨论度 并不高。 今天突然就有几个球友都在问我关于这个微通道盖板的情况,下面我们先看下JP Morgan和Morgan Stanley是如何分析这个液冷方案,再结合今天实际跟液冷厂的朋友聊的情况来分析一下。 1、投行的观点 大摩和摩根大通的这两份报告还是写了不少分析的,也给了几个比较明确的数据。 首先,什么是微通道盖板? 价值量的增加 image-20250916224831268 按照JP Morgan给出的解释,microchannel lid是封装级直接集成了热扩散器(heat spreader)和冷板 (cold plate)的功能,能高效实现热量传导与散发 。它通过在刻有微通道的铜基板上加上盖板,并利 用歧管分配冷却液,将芯片产生的热量带走,属于 ...
液冷新风向?英伟达要求供应商开发新技术
财联社· 2025-09-15 10:16
AI服务器散热技术升级 - 英伟达因AI新平台Rubin及下一代Feynman平台功耗或超2000W 要求供应商开发全新微通道水冷板技术以应对散热需求 [1] - MLCP技术通过整合芯片金属盖与液冷板并设计微流体通道 缩短传热路径并提高散热效率 同时压缩体积 [1] - MLCP单价是现有散热方案的3至5倍 若GPU全面采用该方案 制造成本将比现行Blackwell盖板高出5至7倍 [1] 技术应用与供应链进展 - 英伟达计划最快于2026年下半年在Rubin GPU导入MLCP技术 双芯片版本将依赖MLCP维持散热 单芯片版本及其他组件仍以冷板设计为主 [2] - 已有公司完成向英伟达送样MLCP 但该技术液体渗透率和量产良率风险较高 距离量产仍需3至4个季度 [1][2] - 散热厂、封装厂与组装厂的协作模式仍在验证 MLCP并非AI服务器唯一散热方案 其他新方案也在并行验证中 [1][2] 行业动态与产能基础 - 英伟达供应商Boyd宣布已向超大规模数据中心交付五百万块液冷板 以满足高性能AI计算直接冷却需求 [2] - MLCP被视为散热重组的"分水岭"技术 水冷板和均热片成为新的战略物资 [1]
英伟达推出Rubin CPX,AI-PCB持续升级 | 投研报告
中国能源网· 2025-09-15 02:23
英伟达新产品与技术升级 - 英伟达推出专为大规模上下文推理设计的全新GPU Rubin CPX [1][2] - NVIDIA MGX机架式系统单机架集成144块Rubin CPX GPU、144块Rubin GPU与36颗Vera CPU [1][2] - 系统提供8EFLOPS的NVFP4计算力 配备100TB高速内存与1.7PB/s内存带宽 [1][2] - Rubin CPX相比GB300NVL72系统带来3倍注意力机制处理能力提升 [1][2] - Rubin CPX与Vera CPU和Rubin GPU协同支持多步推理、持久化记忆与长时程上下文 [2] PCB产业链价值提升 - 承载CPX的PCB价值量积极提升 CX9网卡新增PCB需求 [2] - VRNVL144CPX的PCB价值量提升显著 [2] - 英伟达推进正交背板研发 有望采用M9+Q布 单机架PCB价值量可能翻倍以上成长 [2] - ASIC芯片用PCB技术从高多层向HDI演进 未来有望从M8向M9演进 价值量持续提升 [2] - AI-PCB公司订单强劲 满产满销 正在大力扩产 下半年业绩高增长有望持续 [2] 存储与半导体行业动态 - 美光9月12日向渠道通知存储产品即将上涨20%-30% [2] - 所有DDR4、DDR5、LPDDR4、LPDDR5等存储产品全部停止报价一周 [2] - 美国商务部将复旦微电子集团等23家中国实体列入实体清单 包括13家集成电路企业 [2] - 商务部决定自2025年9月13日起对原产于美国的进口相关模拟芯片进行反倾销立案调查 [2] - 调查针对使用40nm及以上工艺制程的通用接口芯片和栅极驱动芯片 [2] 行业需求与投资机会 - 下游推理需求激增 带动ASIC需求强劲增长 [2] - AI覆铜板需求旺盛 海外扩产缓慢 大陆覆铜板龙头厂商有望积极受益 [2][4] - AI服务器及交换机大量转向采用M8材料 未来有望采用M9材料 [2][4] - AI覆铜板/PCB强劲需求带动配套设备及上游电子布/铜箔等需求 [2] - 细分行业景气指标:消费电子稳健向上、PCB加速向上、半导体芯片稳健向上、半导体代工/设备/材料/零部件稳健向上、显示底部企稳、被动元件稳健向上、封测稳健向上 [4] 投资方向 - 看好AI-PCB及算力硬件、苹果链、AI驱动及自主可控受益产业链 [2][4] - 建议关注存储涨价受益产业链 [2] - 建议关注模拟芯片国产替代机会及自主可控产业链机会 [2]
不可思议!英伟达官方宣布将于2026年3月16日至19日在美国圣何塞举行下一届GTC大会!
搜狐财经· 2025-09-03 14:36
GTC大会安排 - 英伟达将于2026年3月16日至19日在美国圣何塞举行下一届GTC大会 [1] - GTC大会是全球AI领域的风向标会议 [1] 技术产品发布 - 明年大会重点展示Rubin GPU和Vera CPU两大产品 [4] - 新产品性能超越当前Blackwell芯片 支持超大规模人工智能训练 [4] - 公司推出AI工厂操作系统Dynamo 机器人模型Isaac GR00T和物理引擎Newton [4] - 公司正在构建完整的智能生态系统 [4] 市场表现与行业地位 - 公司股价今年以来涨幅超过50% [4] - 公司市值突破2万亿美元 成为全球最具价值的科技公司之一 [4] - 投资者密切关注GTC大会寻找投资机会 [4] 行业竞争格局 - 中国科技企业包括华为、寒武纪等公司不断推出自研AI芯片 [4] - 中国企业与英伟达存在技术差距但追赶速度令人惊叹 [4] - 科技竞争最终将使全人类受益 [4]
液冷已来,产业变革加速
2025-09-01 02:01
行业与公司 * **液冷散热技术** 是数据中心和算力基础设施领域的关键新兴技术 主要应用于高功耗芯片如英伟达GB200 GB300等的散热 当前以水基溶液为主 未来可能向氟化液(氢氟醚、氢氟烃、碳氟化合物)等介质发展[1][10] * **国内算力产业链** 正在加速迭代升级 表现为互联网巨头资本开支大幅增加 网络芯片发布 以及国产超节点集群协议的推动[4][11] 核心观点与论据 * **市场前景广阔**:液冷板块已进入实质性发展阶段 预计2026年为爆发元年 全球市场空间可能达千亿规模 2027年电能市场有望扩展至几千亿规模[2][4][13] * **技术驱动需求**:英伟达GB300芯片单片功耗接近2000瓦 推动相变冷板等先进散热技术需求 提升快接头、管路和CDU(冷却分配单元)等设备价值 推动数据中心建设向G瓦级跃升 液冷需求翻倍增长[1][9] * **竞争格局与机遇**:市场共识在于液冷板块爆发在即且空间巨大 主要分歧在于电能板块竞争格局及A股公司份额 中国台湾公司在冷板领域占30%-40%价值量优势 但CPU转接头、管路等剩余60%-70%份额是A股公司的机会 若技术走向相变或静默模式 中国台湾公司优势将减弱[1][3][5] * **国内应用落地**:液冷技术已应用于国产超节点 如润泽科技已落地单体100兆瓦的液冷数据中心 单机柜支持40千瓦以上功率 采用冷板式液冷[12] 其他重要内容 * **国内企业布局**:阿里巴巴和字节跳动等国内企业积极布局液冷技术 阿里Q2资本开支同比增219%至386.76亿元[4][6][11] * **产业链受益环节**:液冷市场的快速增长将使国产厂商在冷板、CDU管路、快接头以及IDC厂商、服务器厂商和交换机厂商等多个环节受益[4][13] * **重点公司**: * **英维克**:被视为全球唯一全链条、全自源、全产业链经营的龙头企业 在GPU和Ethereum市场份额高 产品覆盖全面[6][7] * 其他具备潜力的企业包括工业富联、旭创新材、申菱环境、高澜股份等[1][6] * **芯片产能**:英伟达GB300业绩亮眼 每周生产约1,000个机架 并计划三季度进一步提升产能[8]
Nvidia(NVDA) - 2026 Q2 - Earnings Call Transcript
2025-08-27 22:00
财务数据和关键指标变化 - 总收入达到创纪录的467亿美元 超出预期 所有市场平台均实现环比增长[5] - 数据中心收入同比增长56% 尽管H20收入减少40亿美元 仍实现环比增长[5] - 非GAAP毛利率为72.7% 包含释放H20库存准备金带来的1.8亿美元收益(40个基点) 剔除该收益后非GAAP毛利率为72.3% 仍超出预期[30] - GAAP运营费用环比增长8% 非GAAP运营费用环比增长6% 主要由于计算和基础设施成本增加以及薪酬福利成本上升[30] - 库存从110亿美元增加到150亿美元 以支持Blackwell和Blackwell Ultra的产能提升[31] - 通过股票回购和现金股息向股东返还100亿美元 董事会新批准600亿美元股票回购授权[31] - 第三季度收入预期为540亿美元(±2%) 环比增长超过70亿美元 GAAP和非GAAP毛利率预计分别为73.3%和73.5%(±50个基点)[32] - 全年非GAAP毛利率预计将达mid-seventies水平 运营费用预计同比增长high-thirties范围[33] 各条业务线数据和关键指标变化 - Blackwell平台达到创纪录水平 环比增长17% GB300在第二季度开始量产发货[6] - 网络业务收入达73亿美元创纪录 环比增长46% 同比增长98% Spectrum X以太网 InfiniBand和NVLink需求强劲[19] - Spectrum X以太网实现两位数环比和同比增长 年化收入超过100亿美元[20] - InfiniBand收入环比近乎翻倍 XDR技术采用推动带宽翻倍提升[20] - NVLink实现强劲增长 带宽达PCIe Gen5的14倍[21] - 游戏业务收入达43亿美元创纪录 环比增长14% 同比增长49% Blackwell GeForce GPU供应增加推动销售[24] - 专业可视化收入达6.01亿美元 同比增长32% 高端RTX工作站GPU和AI工作负载采用推动增长[27] - 汽车业务收入(仅车载计算)达5.86亿美元 同比增长69% 主要受自动驾驶解决方案推动[28] 各个市场数据和关键指标变化 - 中国市场数据中心收入环比下降至低个位数百分比 第三季度展望未包含H20对华发货[24] - 新加坡收入占第二季度账单收入22% 因客户集中开票安排 超过99%数据中心计算收入来自美国客户[24] - 主权AI收入今年将超过200亿美元 较去年翻倍以上增长[19] - 欧盟计划投资200亿欧元在法德意西建立20个AI工厂 包括5个超级工厂将AI计算基础设施增加十倍[19] - 英国推出最强大AI系统Isambard AI超级计算机 提供21 exaflops AI性能[19] 公司战略和发展方向和行业竞争 - 处于工业革命开端 预计到本十年末将有3-4万亿美元AI基础设施支出[6] - GB200 NVL系统获得广泛采用 在CSP和消费互联网公司部署 OpenAI Meta和Mistral等灯塔模型构建者使用GB200 NVL 72进行训练和推理[7] - Blackwell Ultra平台表现强劲 产生数百亿美元收入[7] - 向GB300机架架构过渡顺利 工厂在7月底8月初成功转换 目前全速生产约每周1000个机架[8] - Rubin平台芯片已在晶圆厂 Vera CPU Rubin GPU CX9 SuperNIC NVLink 144 scale-up交换机 Spectrum X scale-out和scale-across交换机以及硅光处理器[9] - Rubin按计划明年量产 将是第三代NVLink机架级AI超级计算机[9] - 保持年度产品节奏 在计算 网络 系统和软件领域持续创新[9] - 美国政府开始审查对华销售H20许可证 部分中国客户已获许可但尚未发货 美国政府期望获得许可H20销售收入的15%但尚未发布法规[10] - 继续倡导美国政府批准Blackwell对华销售[11] - 推理和代理AI推动训练和推理计算需求数量级增长 主权AI全球建设 企业AI采用以及物理AI和机器人技术到来推动AI基础设施投资增长[13] - Blackwell设定AI推理性能新标准 NVLink 72和CUDA全栈架构重新定义推理经济性[14] - 软件创新使Blackwell性能自发布以来提升超过2倍 CUDA TensorRT LLM和Dynamo释放最大效率[14] - NVFP4四比特精度在GB300平台上实现比Hopper高50倍的能效 per token[14] - RTX Pro服务器全面生产 近90家公司采用 包括日立 礼来 现代和迪士尼等[17][18] - THOR机器人计算平台现已可用 比AGX Orin提供数量级更高的AI性能和能效[22] - 超过200万开发者和1000多家硬件软件应用和传感器合作伙伴采用机器人全栈平台[22] - Omniverse with Cosmos是物理AI数字孪生平台 用于机器人系统开发 与西门子合作扩展推动AI自动工厂[23] 管理层对经营环境和未来前景的评论 - 在动态外部环境中交付创纪录季度[5] - AI行业正在快速采用革命性技术 AWS Google Cloud Microsoft Azure OpenAI Cohere Mistral Kimi AI Perplexity Reflection和Runway等主要参与者已 embrace[16] - 性能领导地位在最新MLPerf训练基准测试中得到验证 GB200实现全面领先[16] - 推理代理AI正在推动训练和推理计算需求数量级增长[13] - 企业正在现代化数据中心 RTX Pro服务器有望成为数十亿美元产品线[18] - 主权AI正在崛起 各国利用国内基础设施数据和人才开发自身AI presents重大机遇[18] - 机器人应用在设备和基础设施上需要指数级更多计算 代表数据中心平台长期需求驱动因素[23] - 全球AI工厂建设从数千个Hopper GPU的10兆瓦数据中心发展到数十万个Blackwell的100兆瓦设施 未来将发展到数百万个Rubin GPU平台的多吉瓦多站点AI超级工厂[100] - 一次性聊天机器人已演变为推理代理AI 推动训练和推理计算数量级跃升[101] - 代理AI正在成熟 打开企业市场构建领域和公司特定AI代理[101] - 物理AI时代已经到来 解锁机器人学和工业自动化全新行业[101] - 每个行业和工业公司都需要建造两个工厂 一个制造机器 另一个建造机器人AI[101] - 新工业革命已经开始 AI竞赛正在进行中[102] 其他重要信息 - 第二季度向中国以外无限制客户销售约6.5亿美元H20[12] - 全球数据中心基础设施和计算投资今年达6000亿美元 两年内近乎翻倍[13] - 300万美元GV200基础设施投资可产生3000万美元token收入 10倍回报[14] - 开源社区CUDA库贡献与NVIDIA开放库和框架现已集成到数百万工作流中[15] - Blackwell引入突破性数值方法 large language model预训练使用NVFP4 GB300训练比H100快7倍[15] - Spectrum XGS以太网技术设计用于将不同数据中心统一为千兆级AI超级工厂[20] - 日本Fugaku Next将通过NVLink Fusion集成富士通CPU 运行AI 超级计算和量子计算工作负载[21] - 领先量子超级计算和研究中心运行在CUDA Q量子平台上 包括ULEC AIST NNF和NERSC 超过300家生态系统合作伙伴支持[21] - GeForce RTX 5056桌面GPU带来双倍性能 先进光线追踪 神经渲染和AI驱动DLSS 4 gameplay[25] - Blackwell将于9月登陆GeForce NOW 提供RTX 5080级性能 最低延迟和5K分辨率120fps[26] - GeForce NOW目录翻倍至超过4500个标题[26] - 与OpenAI合作优化开源GPT模型 在数百万RTX enabled Windows设备上实现高质量快速高效推理[27] - 开始发货NVIDIA Thor SoC Orin后继产品[28] - 全栈Drive AV软件平台现已投产 开辟数十亿美元新收入机会[29] 问答环节所有提问和回答 问题: 关于2026年增长前景和网络与数据中心之间关系的看法[37] - 增长驱动因素主要是推理代理AI的演进 从一次性提示应答发展为研究思考和计划使用工具 计算需求可能增加100倍 1000倍甚至更多[38][39] - 代理AI显著减少幻觉 能够使用工具执行任务 打开企业市场 推动物理AI和机器人技术突破[40] - Blackwell NVLink 72机架级计算系统专为此设计 从NVLink 8节点级计算过渡到NVLink 72机架级系统[41] - 未来五年将扩展到3-4万亿美元AI基础设施机会 顶级CSP的CapEx两年内翻倍至约6000亿美元 处于建设初期[42] 问题: 关于中国业务2-50亿美元范围和可持续步伐 以及竞争格局和ASIC威胁[44] - H20发货需要解决地缘政治问题 已收到初步许可证 有准备供应 本季度可能发货20-50亿美元 如有更多兴趣和许可证可建造更多[46][47] - NVIDIA构建与ASIC非常不同的产品 ASIC项目很多但很少进入生产 因为加速计算是全栈协同设计问题 AI工厂因问题规模增长变得极其复杂[48][49] - NVIDIA优势在于每个云都可用 每个计算机公司都可用 从云到本地到边缘到机器人相同编程模型 每个框架都支持NVIDIA[50] - 平台多样性 能够演进到任何架构 无处不在 加速整个管道 从数据处理到预训练到后训练强化学习直到推理[51] - 构建Blackwell和Rubin平台需要构建CPU 连接快速内存 超级NIC scale-up交换机NVLink scale-out交换机Spectrum X以太网 以及scale-across交换机Spectrum XGS[52] - 每个云都选择NVIDIA因为能效最佳 perf per watt最好 在功率受限数据中心直接驱动收入 perf per dollar极佳 利润率极高[54] - NVIDIA是AI工厂的整体全栈解决方案[55] 问题: 关于3-4万亿美元数据中心基础设施支出到2030年的可见性和份额 以及电力等瓶颈[58] - 顶级超大规模企业CapEx两年内翻倍至6000亿美元/年 从现在到十年末还有五年 6000亿美元仅代表前四大超大规模企业 还有企业本地建设 全球CSP建设[60] - 美国代表约60%世界计算 AI应反映GDP规模和增长 加速GDP增长[61] - 1吉瓦AI工厂约500-600亿美元 NVIDIA代表约35±%[62] - NVIDIA已成为AI基础设施公司 构建Rubin AI超级计算机需要六种不同类型芯片[63] - 推动perf per watt因为世界总是受功率或AI建设限制 perf per unit of energy使用驱动工厂收入增长[63] - 3-4万亿美元未来五年相当合理[64] 问题: 关于中国市场长期前景和Blackwell架构获得许可的重要性[66] - 中国市场今年约500亿美元机会 如果能够用竞争性产品应对 预计每年增长50% 与世界AI市场增长一致[67] - 第二大计算市场 约50%世界AI研究人员在中国 绝大多数领先开源模型在中国创建[67] - 开源模型对企业非常重要 对SaaS也非常重要 对全球机器人技术非常关键[69] - 正在与政府讨论美国公司应对中国市场的重要性 H20已获批准用于非实体清单公司 许多许可证已获批准[70] - 将Blackwell带入中国市场的机会是真实可能性 需要继续倡导美国科技公司能够领导并赢得AI竞赛 使美国技术栈成为全球标准[71] 问题: 关于Spectrum XGS机会集和规模 within Ethernet产品组合[73] - 现在提供三种网络技术: scale-up scale-out和scale-across[74] - scale-up NVLink 72使构建最大虚拟GPU成为可能 对推理系统关键[74][75] - scale-out InfiniBand无可置疑最低延迟最低抖动最佳scale-out网络 用于超级计算和领先模型制造者[76] - Spectrum以太网不是现成的 专为低延迟低抖动和拥塞控制设计 比任何产品更接近InfiniBand[76] - Spectrum XGS千兆级用于连接多个数据中心多个AI工厂成超级工厂[77] - 选择正确网络将效率提高数十百分点 结果有效效益100-200亿美元 网络非常重要[77] - Spectrum X现在相当大规模业务 仅约一年半历史 所有三种都将非常出色[78] 问题: 关于第三季度70亿美元增长在各组件间的分配[80] - Blackwell仍将是数据中心绝大部分 推动计算和网络方面 因为销售包含NVLink的重要系统[81] - 仍在销售Hopper H100和H200[81] - Blackwell将是增长主要驱动力[82] 问题: 关于Rubin产品过渡和增量能力 以及与Blackwell相比的性能提升[84] - 处于年度周期 因为可以加速成本降低和最大化客户收入生成[86] - Blackwell的perf per watt对于推理系统将比Hopper高一个数量级[87] - Ruben将带来大量新想法 明年将是创纪录年份[89] - 在继续提高AI能力同时 race towards artificial superintelligence 继续提高超大规模企业收入生成能力[90] 问题: 关于AI市场50% CAGR的可见性和明年数据中心收入增长[92] - 有大客户明年非常 significant预测 仍有许多业务正在赢得和许多初创企业正在创建[93] - AI原生初创企业去年融资1000亿美元 今年至今融资1800亿美元[93] - 顶级AI原生初创企业去年收入20亿美元 今年200亿美元 明年比今年高10倍并非不可想象[94] - 开源模型现在打开大型企业 SaaS公司 工业公司 机器人公司加入AI革命 另一个增长来源[94] - 需求非常高 H100s售罄 H200s售罄 大型CSP从其他CSP租用容量 AI原生初创企业争抢容量训练推理模型[95][96] - CapEx两年内翻倍 现在大型超大规模企业约6000亿美元/年[97] - 在6000亿美元/年中代表重要部分并非不合理 未来几年直到十年末将看到非常快速增长 非常 significant增长机会 ahead[98]