文章核心观点 - 谷歌正通过其TPU算力系统从英伟达手中争夺市场份额,行业格局出现结构性松动,一条全新的“谷歌链”正在快速成形 [1][3] - 谷歌TPU的竞争优势不在于单芯片性能,而在于系统级的性价比、规模、效率和总拥有成本,这吸引了Meta、Anthropic等顶级客户 [5][7][10] - AI算力基础设施正从英伟达主导的单一生态,升级为“客户说了算”的多层次、可组合的算力池,形成“英伟达链”与“谷歌链”双轨并行的新结构 [22][25][27] 谷歌TPU的竞争优势 - 谷歌TPU的战略是拼规模、效率、成本和稳定性,而非单卡性能,其第六代TPU Trillium训练主流大模型的“性能/成本比”比上一代最高提升约2.1倍 [5] - 第七代TPU Ironwood将一个Pod最多塞进9,216颗TPU,并配备1.77PB共享HBM内存,配合自研光交换网络降低通信延迟,像一台巨型超级计算机 [5] - 在主流大模型任务上,TPU v5e/v6的性能/成本比相较传统高端GPU方案可提升2–4倍,企业整体算力成本可降低30%–40%甚至更多 [7] - 定价对比直观:同一地区,一颗H100的Spot价格为2.25美元/小时,而一颗TPU v5e仅为0.24美元/小时,单芯片计费价格相差9倍 [8] - TPU已进入高频交易公司、银行、国防部门等对数据隔离、超低延迟、可审计性有严苛要求的场景,打开了GPU难以进入的高价值市场 [15] 关键客户合作与动机 - 谷歌正与Meta洽谈数十亿美元级的TPU采购,Meta考虑自2027年起将部分推理算力从英伟达迁移至Google TPU [1] - 谷歌与Anthropic确立“最高百万颗TPU”的扩容计划,规模直指数百亿美元 [1] - Anthropic的动机在于TPU能用更低预算支撑更大模型规模,并将数据中心建设维护托付给谷歌云,可专注于模型本身 [10] - Meta的动机是进行风险对冲,优化长期运营成本,特别是在每天消耗大量算力的推理和微调场景,迁至更便宜平台可节省持续性现金流 [13] - 谷歌云内部高管表示,若TPU采用率持续扩大,公司有能力从英伟达手中夺走约10%的年收入份额 [1] “谷歌链”核心受益公司 - 博通:提供TPU集群核心的通信和网络部分,包括高速SerDes、交换ASIC及支撑Jupiter光网络的光交换芯片,合作已近十年 [15][16] - 台积电、Amkor、日月光:构成制造端铁三角,负责3nm/2nm制程、HBM堆叠、高密度Chiplet封装,决定算力上限与带宽落地 [18] - Jabil、Flex、Celestica:负责TPU模组、服务器机架、电源系统与整柜装配,是谷歌数据中心扩容最敏感直观的环节 [18] - Lumentum、Coherent、博通的光通信业务:提供Jupiter光交换体系所需的高带宽光模块,支撑数据中心互联从400G向800G、1.6T升级 [19] - SiTime、Luna Innovations:作为OCS上游供应商,提供2D MEMS微镜阵列等高精度器件 [19] - Vertiv:提供解决高功耗带来的散热、电力与液冷需求的电源管理与液冷系统,是算力密度走高的底层能力保障 [20] - 高通:为谷歌端侧AI提供Snapdragon算力平台,是安卓生态运行“端侧大模型”的关键基础,补全谷歌“云-端”AI版图 [20] 行业格局与投资逻辑演变 - 谷歌TPU的崛起触发了全球AI算力结构的“大扩容”,为产业开辟了第二条成熟可靠的算力供给线,降低了单一供应商依赖风险 [22] - AI基础设施升级为可组合、可调度、可精分的“多层次算力池”,客户可根据任务需求(稳定性、灵活性、成本、安全性)配置算力 [22][24][25] - 英伟达链的估值逻辑看生态、通用性、平台溢价,是“成熟期的估值体系”;谷歌链看订单、产能、扩张速度,是“成长期的加速度逻辑” [26][27] - 两条链并非零和替代,而是共同驱动算力扩张:英伟达推高天花板让模型更强,谷歌拓宽高速路让算力供给更可持续、规模化 [27]
美股 一次全曝光“谷歌AI芯片”最强核心供应商,有哪些公司将利好?