傅里叶的猫
搜索文档
H200放开的理性分析
傅里叶的猫· 2025-12-09 02:50
美国放开H200的原因 - 英伟达努力劝说美国政府放开H200的主要目的是清理库存 库存主要集中在英伟达和代工模组厂商 而上游台系ODM厂库存极低 且因超微被美国商务部调查导致供货受限 整体供应链提货能力不足 [2] - 美国市场主流产品已转向B系列 如GB200或8卡机B200/B300 依靠美国市场消化H200库存较为困难 中国市场是关键 [2] - 美国数据中心面临电力供应紧张问题 Blackwell架构相比H100/H200更省电并支持液冷 能效比更高 未来H100/H200将逐步下架 这些旧型号设备若无法在美国消化 最理想的处理方式是合法卖给中国以实现库存转移 [2] 中国对H200放开的态度 - 国内舆论对H200放开看法两极分化 一方认为国产AI芯片性能尚不及H200 大厂有需求 另一方认为同意放开等于自废武功 不利于国产芯片发展 且给予美国未来再次禁运的机会 [3] - 从经济性角度 没有禁掉H200的理由 其单卡性能 主要是算力和显存带宽 高于国内AI卡 [4][5] - 许多旧代码基于Hopper架构 H200可即插即用 深受大厂青睐 且此前H200禁运期间 国内已有流通 海关主要严查H20等阉割版 若美国放开后中国再禁 显得不合理 [8] - 根据Bernstein分析 明年国产GPU产能不会大幅提升 到2027年提升才会比较大 表明目前对高端AI卡仍有较大需求 [8] - 领导层决策不仅基于经济角度 更多考虑政治因素 是否允许进口取决于中美关系走向 若双方关系缓和则放行可能性高 若继续博弈则可能拒绝以示强硬 需在经济发展与科技自主之间权衡 [11] H200放开对国产市场的影响 - H200目前主要被国内云服务提供商用于训练 而国产AI芯片大部分用于推理场景 两者应用场景重叠度有限 H200不直接与国产GPU卡竞争 对国产GPU卡影响不大 [12] - 在推理场景中 国产GPU厂商可预先写好算子供客户直接调用 省时省力 但在训练场景中 算子需客户自己编写 对国产GPU的底层硬件和软件易用性要求更高 同时训练任务对集群互联和稳定性要求也更高 [12] - 由于内存价格翻倍上涨 即便H200模组降价1万美元 总体成本节省有限 经济性不会显著提升 [13] - 对于资本开支较大的云服务提供商 上半年针对B系列的采购并不多 国内B系列保有量也较少 很多在等待性能相比H200提升很多的B300 [13] - 市场消息引发情绪波动 但实际影响有限 真正决定走势的是政策取向、市场需求与资金状况 而非单纯的技术可用性 [14] 国内AI算力硬件供应链梳理 - 文章附带了国内谷歌供应链与英伟达供应链的上市企业梳理表格 涉及光模块/光学器件、服务器电源、液冷、变压器/SST系统等多个环节 列出了部分公司的出货产品、产品市占率、供货方式、毛利率及2026年订单预期等信息 [16] - 涉及的谷歌供应链公司包括光库科技、德科立、腾景科技、赛微电子、欧陆通、英维克、思泉新材、飞荣达、科创新源、金盘科技、伊戈尔、京泉华、四方股份等 [16] - 涉及的英伟达供应链公司包括英维克、思泉新材、科创新源、淳中科技、鼎通科技、麦格米特、京泉华、金盘科技、四方股份等 [16]
AI出海链依旧火热,HRSG仍在持续
傅里叶的猫· 2025-12-08 04:08
AI算力硬件出海链逻辑与市场表现 - 文章核心观点为梳理2026年AI算力硬件出海逻辑及重大边际变化 [1] - 市场热点前三均与AI算力相关 显示该主题近期市场关注度极高 [1] 电力出海行情细分领域切换 - 电力出海行情已从前段时间的SST切换至近期的燃气轮机与HRSG [3] - 燃气轮机与HRSG相关核心标的近期表现非常不错 [4] 燃气轮机行业分析 - 全球燃气轮机市场由西门子能源、GE、三菱重工三家主导生产 [5] - 燃气轮机核心优势在于灵活与高效 能快速响应电网负荷波动 完美适配风电、光伏的间歇性发电特性 [6] - 美国大型燃气轮机的度电成本为70-80美元/兆瓦时 中型机为80-90美元/兆瓦时 远低于燃气发动机、燃料电池等替代方案 [6] - 燃气轮机市场正迎来供需紧平衡的黄金周期 需求受电气化推进、能源安全需求升级及数据中心爆发式增长共同推动 [7] - 根据美银数据 全球燃气轮机订单将持续超出产能 供需缺口至少持续到2030年代初 推动设备定价稳步上涨 [7] - 西门子能源透露 未来12个月将签署至少36GW的燃气轮机订单 较2024年增长40% [7] HRSG(余热锅炉)行业分析 - HRSG近期催化因素是涨价 目前价格为500-550万美金/台 预期明年年初可能达到600-700万美金/台以上 [7] - HRSG价值量占比仅7-8% 但承担了30-40%的发电功率容量比例 [7] - 在当下50%的供需缺口背景下 预期HRSG价格会呈现持续跳涨预期 [7] 国内谷歌(Google)AI供应链梳理 - 光库科技:出货产品为OCS代工服务、FAU 产品市占率17% 供货方式为直接供应 2026年订单及交付预期(乐观)为71.2 [10] - 德科立:出货产品为OCS模组及整机 产品市占率114 供货方式为直接供应 产品毛利率为11-17 [10] - 腾景科技:出货产品为OCS元器件、准直器阵列 供货方式为直接/间接供应(coherent) 2026年订单及交付预期为E: 36244 [10] - 赛微电子:出货产品为代工MEMS芯片 产品市占率11-44 供货方式为直接供应 2026年订单及交付预期为1-W 1-4 [10] - 欧陆通:出货产品为服务器电源 产品市占率11-34 供货方式为直接供应 [10] - 英维克:出货产品为CDU及其它 产品市占率14.1 50% 供货方式为直接供应 2026年订单及交付预期为12.115 [10] - 思泉新材:出货产品为冷板 处于对接送样阶段 供货方式为直接供应 [10] - 飞荣达:出货产品为冷板 处于对接送料阶段 供货方式为直接供应 产品毛利率为20-2.90 [10] - 科创新源:出货产品为导热材料—潜在子公司兆科 产品市占率1.1 11.2 供货方式为间接供应(英业达) 产品毛利率为57.4 [10] - 金盘科技:出货产品为数据中心变压器/SST系统 处于对接送样阶段 供货方式为直接供应 2026年订单及交付预期为2.73 ETT [10] - 伊戈尔:出货产品为数据中心变压器代工/SST器件 供货方式为间接供应 [10] - 京泉华:出货产品为SST中压高频变器件 供货方式为间接供应(伊顿、维谛...) [10] - 四方股份:出货产品为SST系统 处于对接送样阶段 供货方式为直接供应 [10] 国内英伟达(NV)AI供应链梳理 - 英维克:出货产品为CDU、快接头 供货方式为间接供应(AVC、维谛 ...) [10] - 思泉新材:出货产品为冷板 处于送样一小批量阶段 供货方式为直接供应 [10] - 科创新源:出货产品为冷板器件代工 供货方式为间接供应(台达、Cooler ...) [10] - 淳中科技:出货产品为液冷检测设备 供货方式为直接供应 [10] - 鼎通科技:出货产品为224G液冷散热模组 处于过样-26年批量生产阶段 供货方式为间接供应(安费诺、莫仕、泰科电子、富士康 ...) [10] - 麦格米特:出货产品为5.5KW服务器电源 产品市占率1-13 供货方式为直接供应 2026年订单及交付预期为1-5845 [11] - 京泉华:出货产品为SST中压高频变 供货方式为间接供应(伊顿、维谛、施...) [11] - 金盘科技:出货产品为SST系统 处于送样-小批量阶段 供货方式为直接供应 [11] - 四方股份:出货产品为SST系统 处于送样-小批量阶段 供货方式为直接供应 [11]
2026年AI算力硬件出海逻辑及重大边际变化梳理
傅里叶的猫· 2025-12-07 13:13
文章核心观点 文章核心观点是梳理AI算力硬件环节(包括光模块、液冷、AI PCB、服务器电源)出海北美的主要逻辑,并重点分析了2026年各细分行业的关键边际变化,认为这些领域因技术迭代、供需格局优化及国产替代等因素,将迎来高景气发展 [1][2][4][5][8][10][12][14] 一、光模块 - 光模块是2023年AI硬件中涨幅最大且业绩兑现性最强的赛道,核心逻辑在于供给侧验证壁垒高、格局优化,以及需求侧因超节点技术渗透带来的用量与价值量共振提升 [2] - 供给侧壁垒高,出海北美CSP大厂验证周期需2-3年,高速率迭代周期缩短,市场格局优化,呈现中际旭创、新易盛、Coherent、菲尼萨四家占据绝对份额的局面 [2] - 需求侧因超节点技术,光模块与GPU的平均配比量持续提升,呈现需求一阶导(Capex上修)和二阶导(单位使用量提升)共振,驱动800G、1.6T需求持续上修 [2] - 2026年光模块产业核心边际变化包括:1.6T光模块开始规模渗透,预计需求超3000万只,单价900-1000美金/只;高端EML光芯片紧缺,预计缺口25-30%,价格将上涨,例如200G EML芯片价格或超21-22美金/颗;硅光技术渗透率从30-35%提升至50%以上,带动75/100mw CW光源需求爆发,价格预计上涨20-30%;谷歌OCS开始上量,2026年市场空间将超20亿美金 [4] 二、液冷 - 液冷产业出海北美的核心逻辑在于供给侧验证壁垒高、海外产能紧张,以及需求侧因单柜/芯片功耗提升带来的渗透率快速提升 [5][6][7] - 供给侧验证要求极高,一旦出问题损失巨大,形成强渠道壁垒;同时海外主要供应商业务多元,难以集中扩产,预计2026年起供给将呈现紧缺态势 [5][6] - 需求侧,以英伟达体系为例,液冷渗透率将从2023年的20-30%提升至2026年的80-90%;ASIC大厂渗透率将从低于5-10%提升至30-40%;整体市场空间将达到130-150亿美金 [7][8] - 2026年液冷产业核心边际变化包括:国内某龙头厂商在北美市场份额从0%迅速提升至13-17%,预计订单累计超50-60亿;谷歌自TPU V7起全面使用液冷,超200万颗TPU V7或带来3-3.5万个液冷柜,新增市场空间24-28亿美金;服务器电源、存储器等其他数据中心器件将尝试导入液冷方案,预计为柜内液冷部件带来20-40%的单位价值增量 [9] 三、AI PCB - AI PCB出海核心逻辑在于供给侧技术壁垒随产品升级而指数级提高,以及需求侧受益于Capex上修和新互联方案 [10] - 供给侧,随着芯片及机柜方案升级(如采用M9材料、Q布),产品单位价值量和制造难度指数级上升,供应格局将因技术壁垒呈现边际分化 [10] - 需求侧受益于北美CSP巨头Capex持续上修及新PCB互联方案,呈现“1*(1+n%)+X”的需求增长态势 [10] - 2026年AI PCB产业核心边际变化包括:正交背板开始测试上量,单位价值量是传统交换/计算板的3-5倍;海外AI PCB供应份额将发生变化,如胜宏科技凭借HDI优势伴随谷歌TPU V7上量获得更高份额;PCB上游高端材料(如CCL、高阶铜箔)因供需紧张及铜价上涨而价格持续上涨 [12] 四、服务器电源 - 服务器电源出海核心逻辑在于供给侧由台资厂商主导,格局集中(CR3-5超80-90%),验证与适配渠道壁垒高;需求侧受益于Capex上修及技术迭代(如HVDC替代UPS)带来的量价齐升 [13] - 2026年AI服务器电源产业核心边际变化包括:大陆企业在出海北美CSP大厂上取得显著突破;HVDC将大规模替代传统UPS成为主流,行业渗透率超30-40%,市场规模或超20-30亿美金 [14][15] 相关产业链核心上市企业 - 光模块核心上市企业:中际旭创、新易盛 [2] - 光器件核心上市企业:天孚通信 [4] - 光芯片核心上市企业:源杰科技、仕佳光子、长光华芯 [4] - OCS核心上市企业:腾景科技、光库科技、德科立、赛微电子 [4] - 液冷解决方案核心上市企业:英维克、飞荣达 [9] - 液冷冷板核心上市企业:思泉新材、科创新源 [9] - AI PCB核心上市企业:胜宏科技、沪电股份、生益电子 [12] - AI PCB设备核心上市企业:大族数控 [12] - AI PCB钻针核心上市企业:鼎泰高科、中钨高新 [12] - CCL核心上市企业:生益科技 [12] - 铜箔核心上市企业:德福科技、铜冠铜箔 [12] - 电子布核心上市企业:菲利华、中材科技、宏和科技 [12] - AI服务器电源核心上市企业:麦格米特、中恒电气、欧陆通、禾望电气、科士达等 [15]
32张图片图解SemiAnalysis的亚马逊AI芯片Trainium3的深度解读
傅里叶的猫· 2025-12-07 13:13
AWS Trainium3核心理念与战略 - 核心理念是最大化性价比与运营灵活性,追求最佳总拥有成本,而非固定硬件标准 [3][4][8][9] - 采用“Amazon Basics”方法设计系统与网络,根据特定客户和数据中心需求选择交换机带宽和冷却方式,以实现最佳TCO [4][9] - 软件战略从内部优化转向开源生态,旨在构建类似CUDA的护城河,通过开源PyTorch后端、NKI编译器、XLA图编译器及内核库来扩大采用率 [5][6][10] 市场竞争格局与AWS定位 - 人工智能加速器市场竞争激烈,NVIDIA是当前领导者,但面临AWS、AMD、Google等多条战线挑战 [7][10] - AWS Trainium3凭借极强的性价比成为新的竞争者,其上市策略包括对OpenAI等客户提供股权回扣以加速采用 [7][10] - 行业需加速发展以保持领先,避免自满 [7][10] Trainium3硬件规格与代际升级 - 相比Trainium2,Trainium3在关键规格上实现显著提升:BF16/FP8 FLOPs提升2倍,支持MXFP8数据格式,HBM3E容量从96GB增至144GB(+50%),引脚速度从5.7Gbps提升至9.6Gbps(+70%),纵向扩展带宽从PCIe Gen5升级至Gen6实现2倍提升 [12] - 存在4种服务器SKU,品牌命名与供应链代号不一致易导致混淆,文章呼吁AWS采用更清晰的命名法 [12] - 预计下一代Trainium4将采用HBM4,内存带宽和容量相比Trainium3再次翻倍 [12] 机架架构演进与设计 - 架构从Trainium2的2D/3D Torus拓扑演进至Trainium3的交换式纵向扩展架构,后者为前沿MoE模型提供更好的绝对性能和性价比 [4][9][14][26] - Trainium3提供两种主要交换式机架SKU:风冷的NL32x2(代号Teton3 PDS)和液冷的NL72x2(代号Teton3 MAX),分别针对不同功率密度和规模需求 [7][10][26][30] - 设计注重可维护性与可靠性,采用无电缆设计、支持热插拔,不同于NVIDIA追求极致性能而有所牺牲的理念 [28][29][44] 硅工艺与封装技术 - Trainium3采用台积电N3P工艺节点,这是专为高性能计算优化的3nm工艺,相比N5在速度、功耗和密度上带来增量收益 [15] - 封装采用双CoWoS-R组件结构,使用有机薄膜中介层,相比硅中介层成本更低、机械柔性更好,并通过集成无源器件弥补细微布线和电源完整性不足 [16][17][18] - N3P工艺面临漏电与良率挑战,可能导致产品时间表推迟 [15] 供应链与设计合作伙伴策略 - Trainium3的设计从Marvell转向Alchip,后者负责绝大多数产量,主要原因是Marvell在Trainium2上执行不力、开发周期过长 [20] - AWS采用双流片策略,极度关注成本,压缩了合作伙伴的利润空间 [20] - 与Astera Labs建立合作伙伴关系,通过批量采购和股权认股权证获得约23%的有效折扣 [41] 网络架构与扩展能力 - 纵向扩展网络从第一代160通道PCIe交换机演进,未来将采用320通道PCIe及72+端口的UALink交换机,以降低延迟、优化MoE性能 [4][9][37][41] - 横向扩展网络基于弹性织物适配器架构,提供高安全性、可扩展性和低延迟,默认配置为每芯片200Gbps EFA带宽,并可升级至400Gbps [29][35][45] - 采用高基数网络策略,通过定制交换机(12.8T/25.6T/51.2T)和逻辑端口配置,最大化GPU连接规模,实现大规模网络 [46][47] 性能优化与创新特性 - 配备专用集体通信核心,实现计算与通信任务的无竞争并发处理,简化高性能实现 [49][50] - 具备低延迟集体通信特性,如近内存计算、SBUF直接传输、自动转发和零成本转置,优化LLM训练和MoE模型性能 [51][52] - 支持高级流量管理与动态MoE,通过硬件流量整形和原生动态路由支持,无需预先数据洗牌 [53][54] 商业化与部署策略 - 通过无电缆设计、使用Retimer、背板冗余通道等设计哲学,以及风冷/液冷双选项,提高组装效率、部署灵活性和可维护性 [44] - 供应链优化旨在缩短从CoWoS封装到完整机架的交付时间,目标在季度内完成,以实现比竞争对手更快的客户收入生成 [44] - 交换式拓扑相比Torus更受青睐,AWS策略是兼容多代交换机,追求TCO与上市时间的平衡 [26][35]
电力出海:燃气轮机+HRSG行情持续发酵
傅里叶的猫· 2025-12-05 03:48
文章核心观点 - 电力出海板块情绪高涨 燃气轮机和余热锅炉(HRSG)是核心焦点[1] - 全球电力需求结构性增长 尤其是AI与数据中心成为主要驱动力 推动灵活调峰电源需求[3] - 燃气发电作为煤电重要替代方案 全球新增装机预期强劲 西门子能源充分受益[3][4] - 国内HRSG出海企业产能扩张积极 在供需紧张背景下存在显著涨价预期[7] 燃气轮机行业格局与西门子能源分析 - 燃气轮机主机技术壁垒高 全球仅西门子能源、GE、三菱重工三家能生产 主机占发电功率约60%[3] - 西门子能源总积压订单达1380亿欧元 较2022年增长42% 其中650亿欧元来自服务类订单[3] - 公司燃气服务和电网技术板块占比提升且利润率强劲 风电业务收缩[3] - 未来10年全球电力需求预计增长近50% AI与数据中心需求未来10年预计增长两倍以上[3] - 2025至2035年 全球每年新增燃气发电装机容量预计达90-100吉瓦 为过去数十年平均水平两倍 数据中心贡献15%-20%需求增量[4] - 西门子能源柏林工厂大型燃气轮机年产能将从35台提升至2027年的50台 瑞典工厂中型燃气轮机产能2028年翻倍至每年100台 产能已全部售罄[5] - 公司大型燃气轮机长期服务协议附着率达100% 2025年新增服务协议利润率较存量协议提升500个基点以上[5] 国内HRSG出海企业价值 - HRSG占发电功率30-40% 但价值量占比仅7-8% 当前存在50%供需缺口[7] - 博盈特焊越南一期4条产线已满产 越南二期规划8条产线 单条产线对应2台HRSG产能 适配0.5GW重型燃机 销售于北美承包商 至2026年末将具备12条产线产能 总场地可覆盖20条产线[7] - HRSG预期价格将持续跳涨 第一次涨价幅度或超30-40%[7] - 西子洁能海外项目经验丰富 产品已远销东南亚、中东、非洲、南美洲等50多个国家和地区[7]
摩尔上市在即,看好明年的国产替代链
傅里叶的猫· 2025-12-04 13:36
摩尔线程IPO与公司概况 - 公司于2020年由英伟达全球副总裁兼中国区总经理张建中创立,核心团队多来自英伟达、Intel等国际芯片巨头,平均拥有十余年行业经验 [2] - IPO进程创下科创板效率新纪录,从受理至过会仅88天,全程审核流程仅耗时122天,将于近期在科创板上市 [2] - 公司是国内唯一一家同时具备桌面端图形显卡和服务器端AI芯片业务的企业,产品矩阵精准对标英伟达 [2] 公司财务与业务表现 - 2025年上半年营收达7.02亿元,超过2022-2024年营收总和5.08亿元,其中AI相关收入占比超90% [3] - 2025年上半年综合毛利率达69.14%,较2022年的-70.08%实现根本性逆转,板卡产品毛利率超70%,集群产品毛利率约60% [4] - 集群产品为核心收入来源,2025年上半年前两大客户分别贡献3.97亿元和2.17亿元收入,占总营收的87.5% [3] - 根据国金证券预测,2025年营收预计为14.05亿元,2026年预计为25.96亿元,2027年预计为46.87亿元 [7] 国产AI芯片行业前景 - 国内AI市场尚未出现泡沫,2026年将成为供应链价值爆发的关键节点 [12] - 2025至2028年,中国CSP与电信运营商的AI资本开支复合年增长率达25%,到2028年规模将达1720亿美元 [12] - 到2028年,本土AI芯片供给量将较2025年增长5倍,本土企业市占率预计超过90% [14] - 英伟达在华销售受“后门”调查影响难以恢复,为本土厂商创造巨大市场空间,2028年AI芯片需求将达880亿美元 [12][14] 华为昇腾技术进展 - 华为计划于2026年第一季度推出昇腾950PR芯片,采用SIMD/SIMT双编程模型,FP8算力达1PFLOPS,配备128GB自研HBM,内存带宽1.6TB/s [14] - 2026年第四季度推出昇腾950DT芯片,内存升级为144GB自研HBM,内存带宽提升至4TB/s,更适配推理和训练场景 [14] - 昇腾950系列采用UB 4D FullMesh组网架构,性价比进一步提升,铜连接在国产超节点中依然重要 [15] - 华为在明后年GPU市场中份额和增速均为绝对第一 [18] AI产业链供应商梳理 - 文章整理了国内谷歌供应链和NV供应链的上市企业情况,包括光序科技、德科工、岛景科技等公司的出货产品、市占率和盈利能力 [20][22] - 英维克在CDU等领域市占率达44.9%,毛利率为60% [20] - 思泉新材、科创新源、浮中科技等企业在液冷、导热材料、检测设备等领域有布局 [20][22] - 服务器电源和SST系统供应商包括麦格米特、京泉华、金盘科技等 [20][22]
高盛:中国运营商资本开支转向AI,2025年电信网络支出将减少
傅里叶的猫· 2025-12-04 13:36
核心观点 - 中国运营商的资本开支重心正从传统电信网络转向AI及计算基础设施领域 以把握国内日益增长的AI需求[2][3] - 尽管2025年整体资本开支预计将因电信网络支出缩减而下降 但智能计算能力相关投资的增长将部分抵消这一影响[4][8] 资本开支结构转变 - 2024年及2025年上半年 中国运营商资本开支呈现下滑态势 主要归因于传统电信网络(如5G)支出的减少[4] - 运营商正逐步调整投资重心 持续加大在AI及计算基础设施领域的资本开支以满足市场需求[4] - 运营商具备自有互联网数据中心(IDC)资源 无需依赖外部IDC供应商 这一优势有助于降低整体运营成本[7] 2025年资本开支展望 - 高盛预计2025年中国运营商的电信网络支出将进一步减少 但智能计算能力相关资本开支的增长将部分抵消影响 全年整体资本开支仍将有所下降[8] - 中国电信预计2025年资本开支为840亿元人民币 较2024年的940亿元人民币下降 其中计算平台相关投资将有所增加[8] - 中国联通预计2025年资本开支为550亿元人民币 较2024年的610亿元人民币下降 主要因5G相关资本开支缩减 但AI基础设施投资将同步提升[8]
电力出海--燃气轮机和HRSG
傅里叶的猫· 2025-12-03 03:39
文章核心观点 文章认为,在北美缺电及AI数据中心建设需求激增的背景下,燃气轮机发电因其灵活高效、建设周期短、供电稳定等优势,成为匹配数据中心需求的重要电源解决方案,相关产业链(特别是燃气轮机及余热锅炉HRSG)景气度持续高涨,存在显著的投资机会 [1][5][6][18] 燃气轮机概述与市场格局 - 燃气轮机是将热能转化为机械功的高速旋转动力机械,被誉为装备制造业的“皇冠上的明珠”,具有环保、灵活、占地小、发电质量优等核心优势 [3] - 全球燃气轮机市场高度集中,GE Vernova、西门子能源、三菱重工三大厂商占据全球在建燃气电厂燃气轮机市场三分之二的份额 [4] - GE Vernova以近55GW的在建装机容量位居全球首位,其在亚洲燃气轮机市场的份额达38% [4] 燃气轮机的比较优势 - **对比核电**:燃气电站建设周期更短,美国2020年后投产的500MW及以上燃气电站建设周期均控制在4年以内,多数在3年内完成,与AI数据中心2-4年的建设周期高度契合,而2023年核电平均建设周期长达115个月(约9至10年) [5] - **对比光伏与风电**:燃气电站审批更快,2023年美国新增燃气电项目平均并网许可等待时间约10个月,而光伏与风电项目需30个月以上;同时燃气发电不受自然环境限制,供电稳定性远超风光发电,更契合数据中心24小时不间断的供电需求 [6] - **对比柴油机发电**:燃气轮机启动速度快(冷启动至满负荷约20分钟,热启动1分钟内),体积小、重量轻、部署灵活,且运行可靠性高、维护成本低、碳排放更低 [7][8] 燃气轮机的成本优势 - 平准化度电成本(LCOE)是衡量发电经济性的核心指标 [9] - 2020年美国燃气发电LCOE为45美元/兆瓦时,处于较低水平 [9] - 美国能源信息署预测,到2028年美国燃气发电平均LCOE将降至42.72美元/兆瓦时,经济性持续提升 [9] 余热锅炉(HRSG)的核心作用与市场前景 - HRSG是燃气-蒸汽联合循环发电系统的核心设备,用于回收燃气轮机排气余热产生蒸汽再次发电,可将联合循环系统效率较单一燃气轮机发电提升15%-20% [10] - 目前适配北美三大重型燃机厂商的HRSG产能缺口约50%,预计到2027年产能缺口将达到巅峰 [11] - HRSG价格预计将从2026年起随供需缺口放大而显著上涨,行业平均净利率有望从当前的20-30%突破至30-40% [11][17] - 海外HRSG单条产线平均价值量在涨价前为1000-1200万美元/条 [17] HRSG出海壁垒与国内企业进展 - 出海北美市场面临三大壁垒:1)需获得严格的ASME认证及主机厂生产体系认证 [12];2)定制化技术要求高 [13];3)受关税与贸易政策影响,通常需在海外设厂 [14] - **博盈特焊**:越南一期4条HRSG产线已于2024年11月满产,二期规划8条产线,预计2026年陆续满产,年末将具备12条产线产能,总场地可覆盖20条产线 [15] - **西子洁能**:海外项目经验丰富,产品已远销全球50多个国家和地区,标志性工程包括巴基斯坦必凯项目(全球容量最大的联合循环电厂装备之一)和尼日利亚项目(全球最大的天然气自备电站订单之一) [16] 事件催化与产业链景气度 - 杰瑞股份自2025年5月起连续公告获得北美科技巨头订单,叠加租赁合同,总订单体量达2.5-3亿美元(约20亿人民币),市场反应积极 [1] - 在北美缺电及AI数据中心需求驱动下,燃机产业链景气度预计持续高涨 [18]
谷歌TPU机架的互联方案,OCS市场空间测算
傅里叶的猫· 2025-12-02 13:34
谷歌TPU v7互联架构与市场空间 - 谷歌TPU v7采用4×4×4三维环形拓扑结构实现互联,每个包含64颗TPU的立方体单元对应一个物理机架[7][8] - 每颗TPU通过6个连接与相邻节点互联,其中2个通过PCB走线,其余4个根据在立方体中的位置采用铜缆或光模块连接[8][9][11] - 64颗TPU的机架中,铜缆、PCB、光模块的需求比例分别为1:1.25、1:1、1:1.5,具体数量为80根铜缆、64个PCB、96个光模块[12][13] TPU Pod规模与光互联需求 - 单个TPU Pod最多可包含144个机架,TPU总数量达9216颗[14][16] - 单个Pod需要11520根DAC铜缆和13824个1.6T光模块,光模块需求是市场预期谷歌明年需要1000万个1.6T光模块的原因[16] - 144个机架总光端口数为13824个,与48台300端口OCS交换机的有效端口数完全匹配[16] 液冷技术市场前景 - 谷歌自2018年TPU v3时代开始采用液冷机架,预计2026年TPU v7及以上将全面运用液冷[6][7] - 2026年谷歌TPU v7及以上预计出货250万颗,对应约4万个机柜,液冷单柜价值量7-8万美元,市场空间28-32亿美元[7] - 2027年出货量预计超500万颗,单柜价值量可能提升至9-10万美元,市场空间达70-80亿美元[7] OCS交换机市场空间与供应链 - 2026年谷歌预计需要约15000台300端口OCS交换机,其中约12000台由内部制造,3000台外部采购[17] - 按每台OCS交换机15万美元计算,明年OCS市场空间约22亿美元[17][18] - OCS关键部件供应商包括Silex、Lumentum、Coherent、腾景科技、康宁、光库科技等,涉及MEMS芯片、光学元件、FAU等组件[19] 谷歌与NV供应链企业梳理 - 国内谷歌供应链企业包括光库科技、德科立、腾景科技、英维克、金盘科技等,涉及OCS代工、光学器件、液冷、电源等产品[21] - NV供应链企业包括英维克、思泉新材、科创新源、鼎通科技等,主要提供液冷、电源相关组件[21] - 部分企业处于送样或小批量供应阶段,产品毛利率在10%-30%区间[21]
SemiAnalysis的TPU报告解析--谷歌产业链信息更新
傅里叶的猫· 2025-12-01 04:29
文章核心观点 - 谷歌TPU正从内部专用硬件转变为对外竞争的AI算力产品,其技术性能、总拥有成本优势及与Anthropic等头部客户的深度合作,对英伟达的GPU市场主导地位构成了实质性挑战 [4][8][15] - 谷歌通过创新的商业模式、积极的软件生态建设以及供应链多元化策略,旨在打破英伟达CUDA生态壁垒,在AI算力市场建立差异化优势 [33][41][49] - 尽管面临英伟达下一代产品的竞争压力,但谷歌TPU凭借其系统级优化和成本效益,已成功吸引关键客户,并可能重塑AI硬件市场的竞争格局 [22][31][56] 谷歌TPU的市场竞争与客户合作 - **客户采纳与生态形成**:谷歌TPU已获得包括Anthropic、Meta、SSI、xAI及OpenAI在内的头部AI实验室的采购意向,客户清单持续扩容 [4] - **与Anthropic的战略合作**:Anthropic宣布部署规模超1GW的TPU计算集群,并计划分两阶段获取总计100万个TPUv7芯片 [4][9] - 第一阶段:直接采购40万个TPUv7 Ironwood芯片,组装成品机柜价值约100亿美元 [11] - 第二阶段:通过谷歌云租用60万个TPUv7芯片,对应已签约订单金额约420亿美元,占谷歌云第三季度490亿美元未交付订单增量的大部分 [11] - **竞争影响**:TPU的潜在替代效应已对英伟达定价构成压力,例如OpenAI通过释放采用意向,使其英伟达GPU集群成本降低了约30% [7] 技术性能与成本优势分析 - **性能追赶**:TPUv7 Ironwood在FLOPs、内存容量及带宽三大核心指标上已基本追平英伟达同期旗舰GPU(如Blackwell)[21] - **显著的成本优势**: - 从谷歌内部采购视角看,采用3D环面架构的TPUv7全配置总拥有成本比英伟达GB200服务器低约44% [22] - 对于外部客户,即便叠加谷歌的租赁溢价,TPUv7的每小时总拥有成本仍比GB200低约30%,比GB300低约41% [23] - **实际算力效率**:TPU的算力标注更为实在,其实际算力利用率能超过Blackwell GPU,若Anthropic能将TPU的模型浮点运算利用率优化到40%,每单位有效训练算力成本可比使用GB300降低62% [26][28][30] 商业模式与盈利策略 - **创新的合作与融资模式**:谷歌通过提供“信用担保”(表外欠条)的方式,支持新兴云服务商Fluidstack与转型后的加密矿企(如TeraWulf、Cipher Mining)合作,以解决电力供应和数据中心部署瓶颈,此模式已成为新兴云领域的新融资标准模板 [10][12][13] - **高盈利潜力**:TPU v7带来的息税前利润利润率显著高于行业内多数大型GPU云交易,为谷歌云提供了差异化竞争力和远超同质化GPU业务的盈利水平 [34][35] - **定价策略**:作为战略客户,Anthropic获得的TPU租用价格处于谷歌对外公开报价区间的下限,体现了谷歌以长期生态价值换取市场份额的策略 [33] 软件生态建设 - **战略转向**:谷歌正彻底修订其TPU软件战略,从服务内部转向拥抱外部生态,核心目标是破解开发者数量远少于CUDA的短板 [41][42] - **关键举措**: - 全力打造PyTorch TPU“原生”支持,包括默认支持即时执行、整合torch.compile和DTensor等核心功能,以吸引Meta等偏好PyTorch的客户 [43][44] - 重点攻坚vLLM/SGLang的TPU适配,已为TPU v5p/v6e提供beta版本支持,并开源了多款优化的TPU内核 [45] - **算法定制优化**:针对TPU硬件特性,对分页注意力、混合专家模型等关键算法进行了定制优化,实现了显著的性能提升 [46] 供应链、产能与未来产品规划 - **产能与出货规划**: - 2025年谷歌TPU总出货预计超400万颗,其中V5为100万颗,V6为40万颗,V7为200万颗,V7及以上型号预计出货250万颗 [59] - 2026年,V7及以上型号将全面运用液冷,预计出货250万颗(约4万个机柜),对应28-32亿美元的液冷市场空间 [59] - 2027年,V7及以上型号出货量预计超500万颗,液冷单柜价值量可能提升至9-10万美元,对应70-80亿美元的液冷市场空间 [59] - **下一代产品双轨战略**:计划于2027年推出的TPU v8采用双轨策略 [49] - **TPU 8AX**:与博通联合开发,延续v7架构,内存带宽较v7提升约30% [50] - **TPU 8X**:与联发科联合开发,旨在优化供应链成本,推进技术自主化,实现HBM内存的直接采购以控制成本 [51][52] - **面临的挑战**:TPU v8面临供应链延误和技术策略保守的问题,其采用的N3E/N3P工艺和HBM3E内存,与同期英伟达Vera Rubin的“3nm工艺+HBM4内存”组合存在代际差距,总拥有成本优势可能被大幅收窄甚至颠覆 [54][56] 对英伟达的影响与行业格局 - **英伟达的回应与竞争**:英伟达发布声明强调其领先优势,并指出其2024财年第三季度及前三季度对私营企业的战略投资额分别为37亿美元和47亿美元,仅占同期营收的7%和3% [6] - **英伟达的护城河**:CUDA生态和软件优势仍是其强大的护城河,对于缺乏像Anthropic那样拥有前谷歌编译器专家团队的公司而言,使用TPU的门槛依然较高 [36] - **未来的竞争焦点**:AI算力的竞争正从单纯的理论性能比拼,转向更贴合实际需求的有效算力与成本控制的博弈 [31]