Workflow
昇腾系列处理器
icon
搜索文档
中国算力进入拐点
第一财经资讯· 2025-09-29 02:21
英伟达算力预期与生态战略 - 英伟达CEO黄仁勋预测AI推理将迎来十亿倍增长 由AI增强的经济活动将催生每年5万亿美元的AI基础设施资本支出市场[2] - 英伟达与OpenAI达成战略合作 计划建设高达10GW的AI数据中心 相当于部署400万-500万个GPU[2][3] - 合作模式被比喻为"梯云纵" 向OpenAI投资1000亿美元 资金以订单形式回流英伟达 提前锁定利润[2] 全球算力竞争格局 - 算力竞赛进入淘汰赛阶段 需求不断抬高[3] - 大模型迭代加速 新框架与算法多基于英伟达平台开发 生态结构固化将增加后来者兼容成本与技术负担[3] - 甲骨文、英特尔等厂商以订单、资金或股权方式与英伟达结盟 形成美国企业主导的AI新生态[2] 华为算力生态战略 - 华为宣布软件全面开源开放策略 包括开源CANN、Mind系列应用使能套件和openPangu[5] - 未来5年计划每年投入150亿人民币生态发展费用 1500P开源社区算力 15000人进行生态平台开发[5] - 明确变现依靠昇腾硬件 通过开源开放促进硬件规模使用 换取更广阔生态空间[5] 中国算力产业现状 - 从硬件突破向生态构建转型 昇腾处理器在算力密度、能效比等指标具国际竞争力[6] - 寒武纪、海光信息等国产企业在特定领域实现技术突破[6] - 缺乏"中国版CUDA"生态平台 现有CUDA生态将AI应用锁定在英伟达硬件平台[6] 华为生态建设具体措施 - 与Triton、PyTorch、vLLM等开源社区深度合作 贡献插件化架构降低生态维护成本[7] - 作为PyTorch基金会最高级别会员参与主流框架建设[7] - 昇腾主导开源60多个项目 累计6500多名核心贡献开发者 在50多个开源社区贡献37万行代码[7] 生态竞争核心观点 - 黄仁勋承认中国拥有最优秀企业家、最多AI工程师且行动迅速 但强调英伟达护城河比三年前更宽[6] - 华为选择不兼容CUDA生态 坚持开源生态和MindSpore 旨在构建不依赖西方供应链的软件生态[7] - 生态建设需要产业链同心协力 芯片供应问题曾阻碍发展 但"生态是用出来的"[8]
中国算力进入拐点:“用多了就有生态,用少了生态就跑了”
第一财经· 2025-09-29 01:49
对于国内算力市场,建立自己的生态系统也开始变得迫切。 尽管资本市场对算力泡沫发出的警告不断,但英伟达CEO黄仁勋依然对算力产业的发展调高了预期。在 近期一次访谈中,他预测AI推理即将迎来十亿倍的增长,并指出由AI增强的经济活动将催生一个每年5 万亿美元的AI基础设施资本支出市场。 值得注意的,就在访谈前的72小时,英伟达与OpenAI正式达成战略合作,黄仁勋称这笔交易为"能想象 到的最聪明的投资之一"。但也有券商分析师将这种交易模式比喻为金庸小说中的"梯云纵"——看似向 OpenAI投资1000亿美元,实则这些资金又以订单形式流回自家口袋。这种左脚踩右脚的模式,使英伟 达提前锁定利润。 面对这样的"算力激进者",比起泡沫更担心的是错过,近一个月以来,如甲骨文、英特尔等厂商开始以 订单、资金或股权方式与英伟达结盟,一个以美国企业主导的AI新生态正在酝酿。而在国内算力市场 上,随着单颗算力芯片的焦虑逐步缓解,建立一个具有同样生命力和吸引力的生态系统也开始变得迫 切。 生态竞争进入拐点 不断被抬高的需求正在驱动全球算力竞赛进入淘汰赛阶段。 这一决策也意味着华为主动斩断了一条可能的"利润路径",为了获得互联网等企业的 ...
GPU王座动摇?ASIC改写规则
36氪· 2025-08-20 10:33
行业观点分歧 - 英伟达CEO黄仁勋认为全球90%的ASIC项目会失败 强调ASIC缺乏灵活性与扩展性 难以应对AI快速迭代 [2][3] - 市场认为ASIC迅猛发展对英伟达构成威胁 云巨头助推下AI算力市场迎来新临界点 [4][5] 市场份额与出货量 - 当前英伟达GPU占AI服务器市场80%以上 ASIC仅占8%-11% [6] - 2025年谷歌TPU出货量预计150-200万台 AWS Trainium2约140-150万台 英伟达AI GPU供应量500-600万台 [6] - 谷歌和AWS的AI TPU/ASIC总出货量已达英伟达AI GPU出货量的40%-60% [7] - 预计2026年ASIC总出货量将超越英伟达GPU Meta和微软分别于2026/2027年大规模部署自研ASIC [7] ASIC技术优势 - ASIC在AI推理场景具碾压性优势:谷歌TPU v5e能效比是英伟达H100的3倍 AWS Trainium2推理性价比高30%-40% [18] - 谷歌TPUv5和亚马逊Trainium2单位算力成本仅为英伟达H100的70%和60% [18] - 大模型推理芯片需求是训练集群10倍以上 ASIC定制化设计可降低单芯片成本 [18] - 2023年AI推理芯片市场规模158亿美元 预计2030年达906亿美元 复合年增长率22.6% [18] 训练市场格局 - 英伟达占据AI训练市场90%以上份额 Blackwell架构支持1.8万亿参数模型 NVLink6实现72卡集群互联 [19] - CUDA生态壁垒难以撼动:90%以上AI框架原生支持CUDA 用户迁移成本极高 [19] 头部企业ASIC布局 - 谷歌TPU从"名不见经传"发展为具备与英伟达GPU较量实力 [10] - Meta2023/2024年推出MTIA V1/V2芯片 计划2026年推出搭载HBM的MTIA V3扩展至训练与推理任务 [23] - AWS布局推理芯片Inferentia和训练芯片Trainium Trainium3性能较上一代提升2倍 能效提升40% [24] - 微软发布首款自研AI芯片Azure Maia 100(1050亿晶体管)和Azure Cobalt 采用5nm制程 [25] - 华为昇腾910B和寒武纪思元590代表国内ASIC芯片技术突破 [26][27] ASIC芯片供应商 - 博通以55%-60%份额位居ASIC市场第一 定制AI芯片销售额占AI半导体收入70%达308亿美元 [28] - 博通与谷歌/Meta/字节跳动合作 新增OpenAI/苹果客户 正与Meta推进第三代MTIA芯片研发 [28] - Marvell以13%-15%份额位列第二 数据中心业务占比75% ASIC收入主要来自AWS Trainium2和谷歌Axion处理器 [29] - Marvell与亚马逊合作的Inferential ASIC项目2025年量产 与微软合作的Maia项目预计2026年推进 [29]