Workflow
速递|OpenAI与谷歌联手:首度启用TPU破英伟达垄断
Z Potentials·2025-06-29 05:20

OpenAI芯片战略调整 - OpenAI首次大规模采用非英伟达芯片 租用谷歌TPU驱动ChatGPT等产品 旨在降低运营成本并减少对微软和英伟达的依赖 [1] - 公司计算需求快速增长 ChatGPT付费用户超2500万 较年初1500万增长67% 每周还有数亿免费用户 [1] - 此前主要通过微软和甲骨文租用英伟达芯片 2023年服务器支出超40亿美元 训练与推理各占50% 预计2025年支出将达140亿美元 [2] 谷歌TPU市场策略 - 谷歌以"硬件+云绑定"策略推广TPU 仅限云租赁 目前未向OpenAI提供最高性能芯片 优先用于自家Gemini模型开发 [1][2] - 谷歌云TPU客户包括苹果 Safe Superintelligence和Cohere 部分因员工有谷歌背景熟悉TPU机制 [2] - 谷歌数据中心容量吃紧 正与其他云服务商讨论TPU机位租赁 但仍坚持主要通过自有设施提供服务的战略 [4] 行业竞争格局 - 英伟达仍主导市场 谷歌云英伟达芯片租赁收入远超TPU 已下单超100亿美元Blackwell芯片 [3] - 亚马逊 微软 OpenAI和Meta等纷纷自研推理芯片 云服务商需提供财务激励吸引客户使用替代方案 [5] - 微软AI芯片研发遇阻 推迟下一代产品发布 可能无法与英伟达抗衡 对OpenAI转向谷歌TPU形成战略打击 [5] 技术路线分化 - 训练领域英伟达仍无可替代 但推理芯片成为企业降低依赖的新方向 谷歌TPU被OpenAI视为廉价替代方案 [1][5] - OpenAI租用TPU主要针对推理计算 即AI模型运行阶段 尚未明确是否用于训练 [1][2] - 谷歌TPU自2017年商用 长期布局AI软硬件生态 此次合作验证其战略有效性 [1][4]