Workflow
谷歌TPU
icon
搜索文档
算力之战白热化:谷歌开源策略+Meta生态倒戈,欲打破英伟达CUDA生态垄断
智通财经· 2025-12-18 02:55
文章核心观点 - 谷歌正与Meta合作,旨在通过优化其AI芯片TPU对PyTorch框架的原生支持,以削弱英伟达凭借CUDA软件平台建立的行业优势,降低开发者从英伟达生态迁移的门槛 [1] - 此举旨在应对英伟达GPU的高昂价格和供应瓶颈,Meta作为英伟达大客户正积极寻求替代方案,并可能与谷歌达成价值数十亿美元的芯片租用与采购交易 [1] 公司与行业动态 - 谷歌正投入资源推进名为“TorchTPU”的项目,致力于让其TPU更顺滑地运行PyTorch,并考虑将部分代码开源以提高客户采用率 [1] - 谷歌发言人证实该计划,表示其目标是让PyTorch在谷歌云TPU上的体验无缝衔接,并强调TPU和GPU基础设施的需求都在大幅且加速增长 [4] - Meta作为PyTorch开源生态的关键缔造者,正与谷歌合作,旨在让PyTorch能够原生地、无损地在谷歌TPU上大规模运行 [1] - Meta正与谷歌洽谈一项价值数十亿美元的交易,计划在2026年租用谷歌云TPU,并可能在2027年直接采购其芯片用于自家数据中心 [1] 市场竞争格局 - 英伟达在AI领域的领先地位不仅源于其GPU硬件,更因为其CUDA软件平台已成为AI开发的“标准语言” [2] - 谷歌与Meta的合作模式是:Meta提供应用生态(PyTorch),谷歌提供底层算力硬件(TPU),双方在软件层构建一条“绕过CUDA”的快速通道 [2] - 此举旨在降低开发者从英伟达迁移到谷歌阵营的门槛,开发者不再需要为了使用谷歌芯片而重写代码 [1] 市场反应 - 截至消息发布当周的周三收盘,谷歌与英伟达股价双双下跌超3%,Meta股价亦跌超1% [4]
深度|亚马逊或投资 OpenAI 100亿美元,背后是380亿算力合同与长期绑定
搜狐财经· 2025-12-17 11:34
潜在投资与合作框架 - 亚马逊正与OpenAI就一笔规模可能超过100亿美元的投资进行谈判 若交易达成 对应的OpenAI估值将高于5000亿美元 [2] - 作为潜在交易条件之一 OpenAI计划开始使用亚马逊自研的Trainium AI服务器芯片 这有助于亚马逊在AI芯片领域挑战英伟达 [2] - 双方还探讨了电商层面的合作可能性 OpenAI希望将ChatGPT打造成购物入口 同时也有意向亚马逊出售企业版ChatGPT [3] OpenAI的资金需求与算力布局 - OpenAI对资金需求巨大 预计未来四年将因服务器建设与人才投入烧掉超过1000亿美元 并计划在2027年前后再融资约900亿美元 [4] - 为支撑AI模型研发与运行 OpenAI已做出多项长期服务器租赁承诺 包括在未来七年内向亚马逊AWS支付380亿美元 并与微软 甲骨文 谷歌 CoreWeave等多家云服务商达成协议 [2][4] - 公司累计融资已超过450亿美元 并在近期一次私募股份交易中被定价为5000亿美元 [4] 行业竞争与战略布局 - 在AI模型商业化层面 由于微软持有OpenAI约27%股权并拥有向云客户销售其模型的独家权利 亚马逊无法直接将OpenAI模型打包销售给自己的云客户 [3] - 亚马逊在自研前沿大模型上进展不顺 因此与OpenAI合作被视为补齐技术生态的关键拼图和在云与AI竞争中争夺话语权的重要下注 [7] - 科技巨头采取多元投资策略 亚马逊和谷歌均已向Anthropic投入数十亿美元 而微软在重注OpenAI后 又投资了其竞争对手Anthropic [5][6] OpenAI的硬件战略 - OpenAI正在加速硬件层面的“去单一依赖” 除了继续使用英伟达芯片 正与博通合作开发自研AI服务器芯片 并已同意采用AMD的芯片方案 [5] - 英伟达本身是OpenAI股东 近期曾公开表示可能向OpenAI投资最高1000亿美元 其中首笔100亿美元与某个建设里程碑挂钩 但该交易尚未最终敲定 [5] - Anthropic将斥资210亿美元采购由博通参与联合设计的谷歌TPU 同时它也使用亚马逊的Trainium芯片 [6] 交易背景与影响 - 本轮接触始于去年10月左右 背景是OpenAI完成了公司结构重组 转为更传统的股份形式为未来上市铺路 [4] - 若亚马逊融资落地 OpenAI可能会顺势启动一轮更大规模的融资 引入更多投资方 [3] - 未来OpenAI将投入数十亿美元自建数据中心 并不排除将部分算力对外出租 [4]
中泰证券通信2026年策略:AI强者恒强 卫星拐点已至
智通财经网· 2025-12-16 00:05
通信指数大幅跑赢大盘,展望2026保持"超配"推荐。截止2025.11.27,通信(申万)涨幅64.67%,跑赢大 盘,在申万行业分类31个细分板块中排名第二,主要驱动因子为海外AI大厂商 业化闭环驱动光模块等 权重标的涨幅明显。通信行业PE-TTM(剔除负值)为24.6x,全行业第16位,在TMT内部亦仍处低估水 位。未来,随着1.6T出货加快以及IDC、液冷、物联模组等业绩加速释放,2026年通信行业或呈现"越 涨估值越低"局面。因此,持续看好明年AI算力基础设施和卫星互联网带来的通信行业"超配"机会,同 时,看好国产自主可控以及运营商 红利机会。 主线一:海外云大厂CAPEX持续高增,聚焦谷歌及英伟达双链。北美以微软、谷歌、Meta、AMZON 为主的云大厂持续加大资本开支投入,且英伟达预计到2030年末,全球AI投资将达到3万亿至4万亿美 元,CAGR大约为40%。且谷歌以其模型-算力-入口-应用形成商业闭环,良好示范效应将使能云大厂模 型持续竞速。展望2026年,谷歌TPU与英伟达GPU将同台竞技,Scaleup有望打开高速网络连接空间, 1.6T有望开启放量及硅光方案渗透率提升,同时CPO、LPO ...
诺安基金邓心怡:AI产业内部正在发生深刻的结构性演变
新浪财经· 2025-12-15 14:05
来源:百亿基金经理内参 以下内容节选自诺安基金邓心怡最新调研纪要: 持续关注 AI 产业的三个核心预期差方向:应用、算力、以及与人类交互相关的核心消费终端。当前, 对这一框架的判断没有改变,但产业内部正在发生深刻的结构性演变。 1、算力:从 "需求验证" 进入 "利润验证" 与 "结构分化" 阶段 海外算力产业链无疑是 AI 行业最大的贝塔来源,其长期需求毫不怀疑。然而,产业发展已进入第三阶 段,市场的核心关切从 "需求真伪" 转向了 "利润实现"。 阶段演变回顾: 第一阶段(需求验证):市场担忧 AI 应用是否为真命题,即用户活跃度(Token 消耗)能否持续增 长。这一担忧在 2023 年 9 月前后已被证伪。 第二阶段(收入验证):市场担忧 AI 能否创造收入,避免陷入 "烧钱陷阱"。随着 OpenAI 等公司融资 披露和 ARR(年度经常性收入)的快速增长,这一担忧也已消退。 第三阶段(利润验证):当前,市场开始担忧 AI 能否带来可持续的利润。近期海外云厂商(CSP)和 互联网大厂财报显示的营业利润率分化,正是这种 "AI 泡沫化" 隐忧的体现。 核心矛盾:成本刚性 vs. 收入弹性: 以行业标杆 ...
英伟达掘墓人:两大巨头,最新发声
半导体行业观察· 2025-12-13 01:08
文章核心观点 定制化AI芯片市场在2024年底至2025年初经历爆发,AI计算架构的核心从算力峰值转向“规模化扩展能力”和“算力互联效率”[2] 行业正经历从单点技术创新到生态系统全面竞争的演变,博通和Marvell的财报揭示了这一技术与市场变迁[2][6] 市场规模与行业趋势 - 到2030年,规模化扩展交换机市场有望接近60亿美元,配套的光互联器件市场将突破100亿美元[2] - AI基础设施建设从单机柜演进到多机柜规模化扩展架构,推动高速互联、光子技术、先进封装等产业链技术跃迁[2] - 云服务商的资本开支预期增长率从年初的18%飙升至30%以上[2] 公司财务表现与展望 博通 - 2025财年全年营收640亿美元,同比增长24%;AI业务营收200亿美元,同比激增65%;半导体业务营收创370亿美元历史新高[4] - 第四季度总营收180亿美元,同比增长28%,其中AI芯片业务达65亿美元,11个季度实现超10倍增长[4] - AI相关在手订单总额超730亿美元,占合并订单积压总量近一半,将在未来18个月内交付[4] - 预计2026财年第一季度合并营收达191亿美元,同比增长28%;AI业务营收将同比翻倍至82亿美元[5] Marvell - 2026财年第三季度营收创20.75亿美元历史新高,同比增长37%;数据中心业务营收15.2亿美元,同比增长38%,占总营收73%[5] - 预计2027财年数据中心业务营收同比增幅将超25%,营收有望冲击100亿美元关口;2028财年增速将反弹至40%[5] - 从2023年到2028年,数据中心业务的复合增长率将达到50%[6] 定制化XPU业务 - 客户选择自研XPU的根本原因在于硬件优化能实现远超软件调优的性能提升[8] - 市场出现分化:谷歌TPU对外提供云服务,而博通的第四、第五家XPU客户选择闭环自研路线[8] - 博通在第三季度斩获第五家XPU客户,订单金额10亿美元;第四家客户追加订单110亿美元,首批订单100亿美元[9] - Marvell披露了18个XPU及XPO互联场景的设计订单,对应750亿美元总市场机遇,新增订单生命周期营收潜力占10%以上[9][10] 高速互联技术 - 到2030年,规模化扩展交换机独立市场规模近60亿美元,配套光互联器件市场规模同样达60亿美元量级,整体市场突破100亿美元[12] - 博通的AI交换机订单积压金额突破100亿美元,核心产品是支持102太比特/秒的Tomahawk 6交换机[12] - Marvell预计本财年数据中心交换机业务营收突破3亿美元,下一财年预期上调至突破5亿美元[13] - Marvell正加速下一代规模化扩展交换机研发,计划2027财年下半年推出UALink 115T与57T解决方案样品,2028财年量产[14] 光子互联技术 - Marvell收购Celestial AI,其光子互联平台功耗效率是铜基互联的两倍以上,传输距离与带宽更优,热稳定性是其核心竞争优势[18] - Celestial AI的首款产品是光子互联芯粒,单颗芯粒提供高达16太比特/秒带宽,是主流1.6T端口容量的10倍[19] - Celestial AI已赢得全球头部超大规模云服务商重大设计订单,计划在其下一代规模化扩展架构中部署PF芯粒[19] - Marvell预计Celestial AI从2028财年下半年开始贡献营收,2028财年第四季度年化营收达5亿美元,2029财年第四季度翻倍至10亿美元[20] CXL技术 - CXL协议正成为突破AI系统“内存墙”瓶颈的关键[22] - Marvell在两家美国头部超大规模云服务商处赢得5个独特CXL应用场景订单,首款定制化CXL产品已开始出货[23] - CXL技术通过高速互联实现内存池化和扩展,能显著提升系统整体性能[23] - 预计到2029财年,Marvell在智能网卡与CXL两大场景的营收将突破20亿美元[24] 整机柜销售模式 - 博通选择以整机柜为单位交付AI系统,并对系统运行稳定性进行全面认证[9][26] - 第四家客户的首批订单达100亿美元,追加订单110亿美元,采用整机柜交付模式[9][26] - 整机柜模式提升了单客户营收规模和客户粘性,但会因采购非自研组件对毛利率产生下行压力[26] - 该业务的长期营收规模取决于客户未来对算力的需求强度[27] 供应链与先进制程 - 定制化加速器普遍采用多芯片集成,先进封装技术成为关键瓶颈,博通在新加坡建设先进封装工厂以保障供应链安全[29] - 博通主要依赖台积电的3纳米和2纳米制程工艺[29] - Marvell正积极推进多个2纳米制程项目,该工艺将成为未来主力制程技术,其功耗优势能为客户节省可观运营成本[30] 产业竞争生态演变 - AI芯片产业竞争正从单点技术创新演变为生态系统全面竞争[32] - 博通的优势在于深度垂直整合能力,提供从芯片到系统的完整解决方案[32] - Marvell的优势体现在技术平台的广度和开放性,拥有业界最全面的数据中心产品组合[33] - 两家公司都强调与生态合作伙伴的紧密协作,形成了强大的生态网络[33] 未来展望 - 定制化XPU市场进入快速增长期:博通预计2026财年AI业务营收超300亿美元;Marvell预计2028财年定制化业务营收翻倍,数据中心业务增速达40%[35] - 光子互联技术将迎来商业化拐点,规模化扩展架构将成为主流[35] - 先进制程从3纳米向2纳米快速演进,预计2028财年将有多款2纳米产品量产[35][36] - 产业整合将持续深化,通过并购整合快速补强技术短板将成为重要发展路径[36]
群狼围上来了,黄仁勋最大的竞争对手来了
虎嗅APP· 2025-12-12 09:32
美国政府批准英伟达对华销售H200芯片 - 美国政府正式批准英伟达向中国及其他“经批准的客户”出售高端H200 GPU芯片,但需缴纳25%的销售提成,此比例同样适用于AMD、英特尔等其他美国芯片巨头[4] - 英伟达最新的Blackwell和未来的Rubin系列GPU仍被禁止出口[4] - 此举是英伟达首席执行官黄仁勋长达数月游说的结果,受此利好消息推动,英伟达股价盘后上涨[4] - 过去两年,受美国芯片禁运令限制,英伟达逐步失去迅猛增长的中国市场,丢掉了在AI GPU市场原先高达95%的份额,其数据中心业务在中国市场的营收占比也从原先的四分之一急剧下滑[4] - 黄仁勋曾公开抱怨公司在中国市场“完全出局,市场份额已经归零”,而中国AI GPU市场今年规模估计高达200亿-300亿美元,因此即使缴纳25%提成,重新进入该市场对英伟达业绩意义重大[5] 英伟达的市场地位与潜在风险 - 英伟达是生成式AI时代的领军公司,在AI芯片这个万亿级赛道中,以压倒性的性能优势和CUDA平台优势占据主导地位,其GPU产品线几乎垄断了八成以上的市场份额[5] - 公司是全球最具价值的上市公司之一,市值一度突破5万亿美元[5] - 英伟达数据中心业务营收高达1300亿美元(最近财年),但存在客户集中度过高的巨大隐患:前两大客户营收占比39%,前三大客户营收占比高达53%[5] - 据媒体猜测,前五大客户为微软、谷歌、亚马逊、Meta和甲骨文,而前三大巨头(微软、谷歌、亚马逊)正在加速转用自研芯片,这直接威胁英伟达的订单和市场份额[6] 亚马逊AWS的自研芯片战略 - 亚马逊AWS在re:Invent大会上发布了新一代自研AI芯片Trainium 3,被媒体誉为“对英伟达的直接宣战”[7][8] - Trainium 3是亚马逊自2022年以来的第三代AI芯片,主打低成本与推理优势,训练速度比前代快4倍,成本减半[8] - 与英伟达相当的GPU系统相比,Trainium 3可节省50%训练费用,现场演示显示其在Llama 3.1训练中,仅需24小时完成相当于H100集群一周的任务[8] - AWS计划用自研芯片、自研模型、私有化部署及智能体全家桶,覆盖从训练到推理的整条AI赛道[9] - AWS在云计算市场保持巨大领先,市场份额超过三成,排名二三位的微软与谷歌市场份额分别为20%与16%[9] - OpenAI宣布与AWS签署七年价值380亿美元的AI基础设施服务协议,Anthropic等AI初创公司已转向Trainium,节省了超过三成的预算[9] 谷歌TPU的进展与市场威胁 - 谷歌是行业最早自研芯片的巨头,其第一代TPU于2016年发布,最新发布的第七代TPU v7 Ironwood进一步给英伟达带来压力[10][11] - Ironwood单芯片FP8计算能力达4.6 PFLOPS,比第五代TPU提升10倍,是第六代TPU的4倍,专为“高吞吐、低延迟”推理优化[11] - 相比英伟达Blackwell,Ironwood在能效上领先20%,功耗仅300W/芯片[11] - 2025年,谷歌的AI芯片市场份额预计已达到8%,尤其在占AI算力80%的推理领域[12] - 谷歌声称使用TPU可将训练成本降低40%,并已吸引Meta作为第三方客户,Meta计划在2027年部署谷歌TPU,而Meta正是英伟达AI芯片的第四大客户[12] - 谷歌Ironwood服务器将交由富士康代工[12] 微软自研芯片的挑战与延误 - 相比亚马逊和谷歌,微软在自研芯片领域遭遇挫折,其首代Maia 100芯片于2024年推出并开始部署,但原计划今年发布的Maia 200的大规模量产已推迟至2026年[13][14] - Maia 100是微软与博通合作开发的芯片,预计比英伟达H100芯片成本低40%,未来三代计划覆盖训练、推理和边缘[14] - 微软CTO表示公司未来将“主要使用自家芯片”,以减少对英伟达的严重依赖,但Maia 200的量产延误主要由于设计变更、仿真不稳定等技术内部因素以及台积电的产能瓶颈[15] - 由于在台积电抢不到先进制程产能,微软转向英特尔的18A节点计划在明年实现量产,如果Maia二代不能及时部署,微软明年可能还要投入100亿美元购买英伟达芯片[16] 性能与成本的竞争格局 - 英伟达在性能技术上仍具核心优势,其Blackwell架构B200 GPU单芯片FP8计算能力达20 PFLOPS,比前代H100提升4倍,在推理任务中能效比谷歌TPU高出30%[17][18] - 英伟达的CUDA平台支持4000多个AI框架和库,拥有庞大的开发者生态,是其真正的护城河[18] - 成本是AI巨头自研芯片的最大卖点:亚马逊Trainium3宣称可将训练成本降至前代的50%,谷歌Ironwood TPU在推理任务中能效比英伟达H100高出20-30%[19] - AI巨头正通过软件生态蚕食英伟达优势:谷歌的JAX和PyTorch/XLA集成已覆盖70% AI工作负载,AWS Neuron SDK支持主流开源模型,微软DirectML无缝嵌入Visual Studio[19] - 亚马逊计划在Trainium4上集成NVLink兼容技术,预计训练费用再降40%,谷歌TPU v8计划于2027年商用,成本优势或达50%以上[19] 自研芯片的市场份额展望 - 亚马逊的目标是在明年达到50%的自研芯片占比,推动AWS在AI云市场的份额从31%升至35%[20][21] - 谷歌TPU的市场份额已攀升至8%,其外部销售占比已达到20%,随着2027年Meta转用TPU,将给英伟达带来更大竞争压力[21] - AI大模型公司如Anthropic正在推动芯片多元化,同时使用多家芯片而非仅依赖英伟达,Anthropic与谷歌签署了价值数百亿美元的协议,计划使用多达100万片TPU[21] - AMD CEO苏姿丰评价认为,未来五年内,GPU仍将占据市场大部分份额,但给ASIC类加速器(即三大巨头的自研芯片)留出20%–25%的市场份额是合理的[22] - 苏姿丰还计划AMD在未来3-5年抢到两位数的市场份额[22]
英伟达H100太空“狂飙”,马斯克1.5万亿美金IPO终极引爆,王坚断言"这才是AI终极战场"
36氪· 2025-12-12 03:03
SpaceX的IPO计划与战略意义 - 公司计划启动史上最大规模首次公开募股,募集资金300亿美元,若成功上市估值将达到1.5万亿美元(约合人民币10.62万亿元),远超OpenAI的5000亿美元估值 [1][4] - 此次IPO募资规模打破了此前沙特阿美290亿美元的全球纪录,显示了市场对商业航天未来价值的极度认可 [5] - 公司计划将IPO募集的部分资金用于开发基于太空的数据中心,采购所需芯片,以构建轨道AI计算基础设施,推动商业航天与人工智能的深度融合 [8] - 公司星链业务已部署超过8000颗卫星,覆盖用户规模超过1000万,年收入占总收入80%,预计2025年销售额约150亿美元,2026年将增至220亿至240亿美元,且自由现金流已转正 [9] - 若公司估值达到1.5万亿美元,其创始人马斯克的净资产可能实现翻倍增长,马斯克目前净资产为4610亿美元 [7] 太空算力的技术突破与验证 - 初创公司Starcloud通过SpaceX火箭发射了搭载英伟达H100 GPU的卫星,首次在太空中训练了人工智能模型并成功运行,计算能力据称是以往太空芯片的100倍 [1][10] - 该卫星在轨道上使用莎士比亚全集训练了NanoGPT模型,并能向谷歌的开源大模型Gemma查询响应,验证了在太空环境中进行高性能AI计算的可行性 [2][10] - Starcloud的核心愿景是将数据中心部署到近地轨道,以应对地面AI算力发展面临的能源和资源瓶颈,其长远目标是建造功率达5吉瓦、跨度约4公里的轨道数据中心 [10][11] - 公司CEO表示未来十年内新建数据中心或将全部转移至太空,并将启动商业服务,通过卫星影像进行推理,应用于海上搜救和森林火灾定位等场景 [11] 全球科技巨头竞逐太空算力赛道 - 谷歌公布了“太阳捕手计划”,计划在2027年发射两颗搭载其自研TPU的卫星,验证分布式机器学习任务在太空环境中的可行性 [11] - OpenAI首席执行官山姆·奥特曼正筹划可能颠覆太空产业格局的交易,计划通过收购或合作控股一家商业火箭公司,并可能与SpaceX展开直接竞争 [11] - 美国商业航天初创公司Lonestar Data Holdings致力于在月球表面部署首个商业数据中心 [12] - 英伟达AI基础设施高级总监评价称,从一个小小的太空数据中心开始,朝着轨道计算利用太阳无限能量的未来迈出了一大步 [12] 太空算力的驱动因素与优势 - AI模型训练成本高昂,以GPT-3为例,其训练需要数千块GPU芯片、历经数月时间,OpenAI为训练大模型每年投入高达数十亿美元 [13] - 根据国际能源署报告,2026年全球数据中心总用电量可能达到1000TWh以上(约114GW持续负载),其中AI数据中心占比快速上升 [15] - 高盛预测到2030年,AI相关电力需求将增长160%,数据中心总用电量可能占全球电力的8%,超过当前1%~2%的占比 [15] - 太空数据中心能利用全天候高强度太阳能,不受昼夜周期、天气及大气损耗影响,太阳能转换率相比地面具有显著优势,且深空约-270℃的极寒环境有利于散热,无需消耗水资源 [15] - 实现太空算力优势被视为解决AI时代算力和能源限制的突破口 [16] 中国在太空算力领域的布局 - 国家航天局已于近期设立商业航天司,相关业务正逐步开展,标志着中国商业航天产业有了专门的监管机构 [17] - 北京拟在700-800公里晨昏轨道建设运营超过千兆瓦功率的集中式大型数据中心系统,以实现将大规模AI算力搬上太空 [17] - 中科宇航力箭一号遥十一运载火箭成功发射9颗卫星,截至此次任务,该火箭已累计服务32家卫星客户,发射服务业务覆盖欧洲、北美、南亚、中东、北非等区域,显示中国商业航天正从“服务国内”向“服务全球”迈进 [17]
H200放行,能否助力英伟达冲刺6万亿?
虎嗅APP· 2025-12-10 10:13
文章核心观点 - 美国政府批准英伟达向中国销售H200芯片,但最新架构Blackwell及下一代Rubin仍被禁,且美政府将抽取25%的销售额分成[6] - 此次批准是美国政策基于中国AI产业链快速追赶现状的灵活博弈,旨在将英伟达技术扩散至全球市场,但H200在中国市场的销售窗口、应用场景及份额将受到严格限制,对英伟达整体业绩和估值影响有限[7][8][20][35] - 英伟达当前面临中国市场收入骤降、谷歌TPU等定制ASIC芯片竞争加剧等多重压力,重获中国市场并非其冲击6万亿美元市值的关键王牌,公司更需应对长期竞争力挑战[23][26][29][35][36] 半年之间态度转变的原因 - 中国AI芯片产业快速追赶,国产芯片已在部分参数上接近或超越此前被禁的阉割版H20,美国过往策略是在国内量产同类产品后,再以低价放开销售[9][10] - 具体而言,华为昇腾910C在FP16算力(800 TFLOPS)、INT8算力(1600 TOPS)等“硬性”参数上已优于H20(FP16算力364 TFLOPS,INT8算力未明确),且已量产[10] - 此次放开H200,一定程度上是中国AI产业链进展的证明,也是美中产业博弈的体现[10] H200的产品竞争力与市场定位 - H200性能是此前H20的6倍,目前仍在海外大厂正常服役中,其产品周期从2024年二季度量产开始,结合4-6年的折旧年限,仍处使用期[12] - 相比美国下一代训练芯片Blackwell,H200存在约2年的代差,Blackwell主要用于推理和微调,下一代前沿大模型训练将基于Blackwell[13] - 但在中国市场中,H200算力优势依然明显超前,国内除华为外多数厂商尚未解决量产问题,且国内训练卡较为缺位[13] - H200能构建与美国同等性能的FP8训练超算,加速大模型研发与产业应用,其虽不支持原生FP4,但可通过“FP4存储+FP8计算”兼容FP4模型[13][14] - 根据华为路线图,其下一代950芯片(2026年Q1)在总处理性能(TPP)上仍不及H200,需等到2027年Q4的Ascend 960系列才能赶上,意味着H200领先国产AI芯片约2年[16][17] - 参数对比显示,H200在FP16算力(733 TFLOPS)、显存容量(141GB HBM3e)、显存带宽(4800 GB/s)等方面显著优于当前国产旗舰芯片[19] H200在中国的销售前景与限制 - H200在中国的出货窗口期预计为1到2年,且难以回到此前95%-100%的市场份额[20] - 销售将受到严格限制:政策要求中国云厂商资本开支必须有一定份额支撑国内产业链;技术迭代快,未来政策存在不确定性;国内厂商有算力自主诉求[20] - H200很可能被精准定位在“训练”场景,以满足国内训练算力约2年的空窗期需求,而推理场景将主要采用国产芯片[20] - 实际销售可能采用许可制购买,云厂商需明确说明使用场景及H200的必要性[21] 英伟达面临的竞争压力与焦虑 - 中国市场基本丢失:在H20被禁后,英伟达最近财报中中国市场收入份额已滑落至5%左右,而此前中国市场贡献约2成收入[23] - 上季度(财报后交流透露)中国地区收入约0.5亿美元,基本来自PC、游戏等非AI芯片[24] - “谷歌Gemini+博通”阵营构成潜在威胁:谷歌TPU持续拉货使博通成为AI芯片市场“老二”,市占率约10%[26] - Gemini模型未使用英伟达产品,Anthropic模型仅部分使用,表明英伟达芯片并非大模型“必选项”[26] - 市场传出谷歌TPU正与Meta进行外供谈判,一旦对外供应将对英伟达构成更直接威胁[27] - 英伟达当前市值对应下一财年净利润仅为22倍PE,低于博通的40倍PE,反映市场对其稀缺性减弱的担忧[29] 重回中国市场对英伟达的财务影响 - 即使需向美国政府缴纳25%的销售额分成(假定原H200毛利率65%,分成后毛利率约40%),由于此前业绩展望未计入中国AI芯片收入,H200若能销售将带来纯收入增量[29] - 中国AI芯片潜在客户主要分为三类:互联网大厂(字节、腾讯、阿里、百度)、华为云、运营商及政企云(中国移动、联通、电信等)[31] - 其中,仅互联网大厂是H200潜在购买方,采用“英伟达/AMD+国产算力+自研算力”模式;华为云自给自足;运营商及政企云全部采用国产算力,不会采购H200[31] - H200需求主要集中于训练场景,而当前算力用量中推理与训练的token消耗比例约为35:65,且向推理倾斜[32] - 结合中国云厂商合计资本开支在2026年有望达到1230亿美元(同比增长40%),其中约30%用于AI芯片购买,可推算2026年中国AI芯片市场规模约381亿美元[32][33] - 假设英伟达在2026年中国市场获取35%份额,则H200放开可能带来约133亿美元的收入增厚[33] - 按40%的税后毛利率和约10%的经营费用率计算,133亿美元收入增量约贡献40亿美元的利润增量[35] - 预估公司2027财年净利润约为1923亿美元(假定营收同比+57%,毛利率75%,税率15.9%),40亿美元的利润增量仅使业绩增厚约2%,对估值影响微乎其微[35] - 市场更担忧“谷歌Gemini+博通”的竞争对英伟达2027年及之后市场竞争力的影响[35]
科技投资大佬:明年英伟达GPU将颠覆谷歌TPU优势
美股IPO· 2025-12-10 03:38
AI芯片竞争格局与成本优势演变 - 谷歌TPU目前在AI训练成本上显著领先英伟达Hopper芯片,优势被比喻为“四代喷气式战斗机”对阵“二战时代的P-51野马”[4] - 凭借此成本优势,谷歌能够以负30%的利润率运营AI业务,以压制竞争对手[1][4] - 英伟达新一代Blackwell芯片集群预计在2026年初投入使用,届时将有望终结谷歌TPU的成本优势,重塑AI产业竞争格局[1][3][4] 英伟达Blackwell芯片的技术挑战与部署 - 从Hopper到Blackwell的过渡是科技史上最复杂的产品转型之一,涉及机架重量从约1000磅增至3000磅,功耗从30千瓦跃升至130千瓦,冷却方式从风冷转为液冷[5] - 由于巨大的技术挑战,Blackwell芯片直到最近三四个月才开始大规模部署[5] - 推理技术的突破填补了新一代芯片到来前约18个月的空白期,避免了AI进展在2024年中期至Gemini 3发布期间停滞[5] Blackwell芯片的预期影响与后续产品 - 基于Blackwell训练的首批模型预计将在2026年初由xAI率先推出[6] - xAI快速的部署速度帮助英伟达在数据中心内形成连贯的GPU集群,为所有客户排除故障[6] - 即将推出的GB 300芯片将具有“即插即用”兼容性,能直接替换现有GB 200机架,无需额外基础设施改造[6] - Ruben下一代芯片推出后,英伟达GPU与TPU及其他ASIC之间的性能差距预计将进一步扩大[12] 谷歌TPU的架构与供应链风险 - 谷歌TPU采用保守的设计和供应链策略,前端设计由谷歌负责,但后端设计外包给博通,后者从中收取50-55%的毛利率[7][10] - 以2027年TPU业务规模约300亿美元估算,谷歌每年需向博通支付约150亿美元,而博通半导体部门的运营成本仅约50亿美元[7] - 谷歌引入联发科作为第二供应商,是对博通毛利率过高的一种警告,联发科的毛利率远低于博通[9] - 这种分散供应的策略可能导致谷歌在设计上更加保守,使TPU的发展速度难以跟上英伟达GPU的年度迭代节奏[10] 成本优势逆转对谷歌战略的影响 - 一旦失去最低成本生产商地位,谷歌以负30%利润率运营AI业务的策略将变得“非常痛苦”,甚至可能影响其股价表现[1][11] - 作为低成本生产商时,以负利润率运营以压制竞争对手、最终获得主导市场份额是合理的经济策略[11] - 当Blackwell集群转向推理应用并改变成本动态后,谷歌的战略计算将发生根本性改变[11]
科技投资大佬:明年英伟达GPU将颠覆谷歌TPU优势
华尔街见闻· 2025-12-10 03:06
文章核心观点 - 英伟达新一代Blackwell芯片及其后续产品预计将在2026年初开始重塑AI训练的成本结构,终结谷歌TPU当前的低成本优势,从而可能改变AI产业的竞争格局和经济模型 [1][6] 英伟达Blackwell芯片的进展与影响 - 从Hopper到Blackwell的过渡是科技史上最复杂的产品转型之一,数据中心机架重量从约1000磅增至3000磅,功耗从30千瓦跃升至130千瓦,冷却方式从风冷转为液冷 [2] - 由于上述技术挑战,Blackwell芯片直到最近三四个月才开始大规模部署,其延迟为谷歌创造了意外的优势窗口 [2] - 基于Blackwell训练的首批模型预计将在2026年初问世,预计将由xAI率先推出 [2] - xAI快速的部署速度帮助英伟达在一个数据中心内尽可能多地部署GPU以形成连贯集群,为所有客户排除故障,这种“连贯”集群通过scale-up网络和scale-out连接共享内存 [3] - 英伟达即将推出的GB 300芯片将具有“即插即用”的兼容性,能够直接替换现有GB 200机架,无需额外的基础设施改造,垂直整合的公司将成为新的低成本生产者 [3] - 在Ruben下一代芯片推出后,英伟达GPU与TPU及其他ASIC之间的性能差距预计将进一步扩大 [6] 谷歌TPU的成本优势与潜在挑战 - 谷歌凭借TPU芯片在AI训练领域占据了低成本优势,使其能够以负30%的利润率运营AI业务,有效“抽干AI生态系统的经济氧气” [1] - 谷歌将TPU的前端设计留给自己,但将后端设计外包给博通,后者从中收取50-55%的毛利率 [4] - 以2027年TPU业务规模约300亿美元估算,谷歌每年要向博通支付约150亿美元,而博通半导体部门的运营成本仅约50亿美元 [4] - 谷歌引入联发科作为第二供应商,被视为对博通的“警告”,联发科的毛利率远低于博通 [4] - 但这种供应商分化和外包策略导致谷歌在设计上更加保守,使TPU的发展速度难以跟上英伟达GPU的年度迭代节奏 [5] - 谷歌通过引入联发科作为第二供应商,可能进一步拖慢TPU的进化速度 [5] AI产业竞争格局的预期转变 - 一旦谷歌失去最低成本生产商地位,其以负利润率运营AI业务以压制竞争对手的战略将发生根本性改变 [6] - 当Blackwell集群转向推理应用并改变成本动态后,继续维持负30%的利润率对谷歌来说将变得“非常痛苦”,甚至可能影响其股价表现 [6] - 推理技术的突破在2024年中期至Gemini 3发布期间“拯救了AI”,在新一代芯片到来前填补了约18个月的空白期 [2] - 英伟达和AMD的策略是“每年推出一款GPU,让竞争对手无法跟上” [5]