群狼围上来了,黄仁勋最大的竞争对手来了
36氪·2025-12-12 02:16

美国政府批准英伟达对华销售H200芯片 - 美国政府正式批准英伟达向中国及其他“经批准的客户”出售高端H200 GPU芯片,但需缴纳25%的销售提成,此比例同样适用于AMD、英特尔等其他美国芯片巨头 [1] - 英伟达最新的Blackwell和未来的Rubin系列GPU仍然被禁止出口 [1] - 受此利好消息推动,英伟达股价盘后应声上涨 [1] 英伟达中国市场现状与影响 - 过去两年,受美国芯片禁运令限制,英伟达在AI GPU市场的中国份额从原先的95%急剧下滑 [1] - 在英伟达最核心的数据中心业务中,中国市场的营收占比从原先的四分之一急剧下滑 [1] - 英伟达CEO黄仁勋曾公开表示公司在中国市场“完全出局,市场份额已经归零” [2] - 即便缴纳25%提成,重新进入中国市场对英伟达意义重大,因为中国AI GPU市场规模今年估计高达200亿-300亿美元 [2] 主要云服务商加速自研AI芯片 - 英伟达最大的AI芯片客户——谷歌、亚马逊、微软三大超大规模云服务商正在加速普及自研芯片,以减少对英伟达的依赖 [2] - 英伟达数据中心业务营收高达1300亿美元(最近财年),但客户集中度过高,前两大客户营收占比39%,前三大客户营收占比高达53% [2] - 前三大客户(微软、谷歌、亚马逊)加速转用自研芯片,并拉拢英伟达的第四大客户(Meta),这直接减少英伟达订单并可能带来公开市场威胁 [3] 亚马逊AWS的自研芯片进展 - 亚马逊AWS发布新一代自研AI芯片Trainium 3,主打低成本与推理优势,被媒体誉为“对英伟达的直接宣战” [5] - Trainium 3训练速度比前代快4倍,成本减半,与英伟达相当的GPU系统相比可节省50%训练费用 [5] - 现场演示显示,Trainium 3在Llama 3.1训练中,仅需24小时完成相当于H100集群一周的任务 [5] - 对于采用其Neuron软件栈和Trainium实例的客户,基于Trainium的实例可将大型模型的训练和推理成本比同类GPU集群降低高达约50% [6] - AWS在云计算市场份额超过三成,排名第一,微软与谷歌市场份额分别为20%与16% [6] - OpenAI与AWS签署七年价值380亿美元的AI基础设施服务协议,Anthropic等AI初创公司已转向Trainium,节省了超过三成的预算 [6] - 亚马逊的目标是在明年达到50%的自研芯片占比,推动AWS在AI云市场份额从31%升至35% [17] 谷歌的自研芯片进展 - 谷歌发布第七代自研AI芯片TPU v7 Ironwood,单芯片FP8计算能力达4.6 PFLOPS,比第五代TPU提升10倍,是第六代TPU的4倍 [7][9] - Ironwood专为“高吞吐、低延迟”推理优化,相比英伟达Blackwell,在能效上领先20%,功耗仅300W/芯片 [9] - 谷歌声称使用TPU可将训练成本降低40% [10] - 2025年,谷歌的AI芯片市场份额预计已达到8%,尤其在占AI算力80%的推理领域 [9] - 谷歌TPU的外部销售占比已达到20%,并吸引了Meta等第三方客户,Meta计划在2027年部署谷歌TPU [10][17] - Anthropic与谷歌签署价值数百亿美元的协议,计划使用多达100万片TPU,其中包括40万片Ironwood [18] 微软的自研芯片进展与挑战 - 微软自研芯片首代Maia 100于2024年推出,今年开始大规模部署于Azure数据中心,预计比英伟达H100芯片成本低40% [11] - 但原计划今年发布的Maia 200(代号Braga)的大规模量产已推迟至2026年,主要由于设计变更、仿真不稳定等技术内部因素以及台积电产能瓶颈 [13] - 如果Maia二代不能及时规模部署,微软明年可能还要投入100亿美元购买英伟达芯片 [14] - 微软计划转向英特尔的18A节点,以期在明年实现量产 [14] 英伟达的技术优势与市场护城河 - 英伟达在AI芯片市场占据主导地位,其GPU产品线几乎垄断了八成以上的市场份额,公司市值一度突破5万亿美元 [2] - 英伟达Blackwell架构B200 GPU单芯片FP8计算能力达20 PFLOPS,比前代H100提升4倍,在推理任务中的能效比谷歌TPU高出30% [15] - 英伟达的核心护城河在于其CUDA平台,支持4000多个AI框架和库,拥有庞大的开发者生态 [15] - 黄仁勋宣称英伟达的GPU“领先竞争对手整整一代” [15] 未来市场竞争格局展望 - 2026年市场将上演“性能 vs 成本”的巅峰对决,英伟达强在性能与技术,而巨头自研芯片主打成本优势 [15] - 亚马逊计划在Trainium4上集成NVLink兼容技术,实现与英伟达GPU无缝混合部署,预计训练费用再降40% [16] - 2027年商用的谷歌TPU v8成本优势或达50%以上 [16] - AI巨头正通过“渐进式”策略蚕食英伟达的CUDA优势,例如谷歌的JAX和PyTorch/XLA集成已覆盖70% AI工作负载 [16] - AMD CEO苏姿丰认为,未来五年内,给ASIC类加速器(即巨头自研芯片)留出20%–25%的市场份额是合理的,GPU仍将占据大部分市场 [20] - 苏姿丰还计划AMD在未来3-5年,抢到两位数的市场份额 [20] - 英伟达在中国市场还要面临华为、寒武纪等本土竞争对手 [20]