Workflow
Amazon Nova系列自研模型
icon
搜索文档
替代英伟达,亚马逊AWS已部署超过100万枚自研AI芯片
36氪· 2025-12-03 10:01
亚马逊AWS发布新款AI芯片与模型 - 亚马逊AWS在re:Invent 2025大会上发布新款3nm制程AI芯片Trainium 3,并宣布下一代Trainium 4已在研发设计阶段 [1] - 同时发布Amazon Nova 2系列自研模型,包括Lite、Pro、Sonic、Omni四款,目前已有数万企业客户如海信、印孚瑟斯 [1] 自研AI芯片部署规模与性能 - 亚马逊已部署超过100万枚Trainium系列AI芯片,该系列每年为公司带来数十亿美元收入 [2] - Trainium 3每兆瓦电力产生的Token数量是上一代的五倍,训练成本最多可降低50% [2] - 搭载144枚Trainium 3芯片的Trn3 UltraServer服务器总算力达362 PFlops,整机性能超过英伟达GB200 NVL72,但单卡性能仅为GB200的56% [4][5] - 公司通过提升服务器集群算力与带宽来弥补单卡性能差距 [5] 算力基础设施扩张 - 亚马逊AWS过去12个月新增3.8GW算力,当前算力电力容量是2022年的两倍,预计2027年再次翻倍 [2] - 算力集群可容纳大量芯片,1GW算力集群可容纳20万枚英伟达GB200芯片 [2] 自研芯片战略背景与目标 - 自研AI芯片战略可追溯至2018年,旨在降低对英伟达的依赖并控制算力总拥有成本 [7][8] - Graviton系列CPU芯片在亚马逊AWS新增CPU算力中占比超过50%,客户包括苹果、SAP等 [7] - 理想情况下,自研芯片可以英伟达同等规格芯片三分之一的价格获得 [8] 云厂商自研芯片市场影响 - 英伟达在全球AI芯片市场占据超过60%份额,2025年综合毛利率达69% [8] - 谷歌TPU v7运行成本为1.28美元/小时,仅为英伟达GB200的56%,对外服务成本为1.6美元/小时,是英伟达的51% [9] - 谷歌TPU系列2023年至2025年出货量分别为50万、240万、175万枚,预计2026年达300万枚 [12] - 亚马逊与谷歌的自研芯片部署量已在英伟达主导的市场中占据一席之地 [13] 全球AI芯片市场需求与竞争格局 - 英伟达上一代Hopper系列生命周期内交付400万枚GPU,Blackwell系列在约四个季度内交付600万枚,未来五个季度计划交付2000万枚 [14] - 高盛预估2025年至2027年全球AI芯片需求量分别为1000万、1400万、170万颗,英伟达市场份额预计从62%降至55% [14]