Workflow
IPU
icon
搜索文档
一家芯片“新”巨头,横空出世
半导体行业观察· 2025-08-21 01:12
核心观点 - 软银正通过大规模资本运作构建完整的AI算力产业链 从IP到应用层进行全面布局 目标是成为全球第一的ASI平台提供者[5][9][23] - 公司采取"跨资产集成"策略 通过投资和收购在半导体制造 CPU AI加速器 数据中心和大模型等关键环节建立影响力[23][34][35] - Arm是战略核心 其IP授权模式提供稳定现金流 且正通过自研芯片强化数据中心领域话语权[26][28][31] 财务数据 - 截至2025年6月26日 软银净资产价值约31万亿日元 市值约14万亿日元 约为资产价值的一半[4] - Arm在2024财年实现40.07亿美元创纪录收入 同比增长25.3% 其中专利收入增长22.7%至21.68亿美元[30] - 全球基于Arm的芯片累计出货量超过3250亿个 预计2025年超大规模提供商50%新服务器芯片将基于Arm架构[28] 战略投资布局 - 向英特尔投资20亿美元 成为其前十大股东 支持其系统代工+AI战略并布局美国本土制造[13] - 领投OpenAI高达400亿美元融资 分两期投入 先投100亿美元 年底追加300亿美元[16][19] - 以65亿美元收购Arm服务器CPU厂商Ampere 补齐CPU自主可控缺口[20] - 收购英国AI芯片公司Graphcore 获得差异化IPU技术路径[21] - 联合OpenAI和Oracle推动Stargate项目 规划投资规模达5000亿美元 在俄亥俄州与富士康合作建设超级数据中心设备产线[14] 产业链整合 - 构建从IP Arm → CPU Ampere → AI加速 Graphcore/NVIDIA → 制造 Intel Foundry → 数据中心 Stargate → 应用 OpenAI 的完整算力栈[23][26][27] - Arm商业模式具有长尾效应 约50%专利收入来自10年前推出的产品 为AI扩张提供稳定现金流[30] - Arm启动自研芯片计划 挖角亚马逊AI芯片负责人 可能推出面向数据中心的整芯片产品[31] 竞争策略 - 区别于英伟达的技术闭环模式和云厂商的垂直整合模式 软银采取跨资产集成策略 通过资本运作聚合各环节最优资源[34][35] - 在Arm/NVIDIA/Intel Foundry等多个生态同时布局 以多点影响替代单点自研[34] - 将社会化生产要素重新组织 在应用层通过OpenAI实现收口 争夺系统集成权[35]
芯片新贵,集体转向
半导体芯闻· 2025-05-12 10:08
行业趋势 - AI芯片行业正从大规模训练市场转向更现实的推理市场,Nvidia在训练芯片市场占据主导地位,而其他公司如Graphcore、英特尔Gaudi、SambaNova等转向推理市场 [1] - 训练芯片市场门槛高,需要重资本、重算力和成熟的软件生态,新晋企业难以生存,推理芯片成为更易规模化落地的选择 [1] - 推理市场对内存和网络的要求较低,适合初创公司切入,而Nvidia在训练市场的优势包括HBM内存和NVLink等网络技术 [21][22] Graphcore - Graphcore曾专注于训练芯片,其IPU处理器采用并行处理架构,适合处理稀疏数据,在化学材料和医疗领域表现突出 [2][4] - 2020年Graphcore估值达28亿美元,但其IPU系统在大型训练项目中难以挑战Nvidia,2021年微软终止合作后公司开始衰落 [4][5] - 2024年软银收购Graphcore后转向推理市场,优化Poplar SDK,推出轻量级推理方案,聚焦金融、医疗和政府场景 [6] 英特尔Gaudi - 英特尔2019年以20亿美元收购Habana Labs,Gaudi系列主打训练和推理,Gaudi2对比Nvidia A100吞吐量性能提高2倍 [7][9] - 英特尔内部存在Habana与GPU部门的竞争,官僚效率低下影响决策,Gaudi训练平台市场采用率低迷 [9][10] - 2023年Gaudi转向训练+推理并重,Gaudi3强调推理性能和成本优势,每美元推理吞吐量高于GPU近30%,但未能达到营收预期 [10][11] Groq - Groq创始人曾参与Google TPU设计,其LPU架构采用确定性设计,主打低延迟和高吞吐率,适合推理任务 [12][14] - 早期尝试训练市场失败后转向推理即服务,2024年展示Llama 2-70B模型每秒生成300+ Token,吸引金融、军事等延迟敏感行业 [15] - GroqCloud平台提供API接口,与LangChain等生态集成,定位为AI推理云服务提供商 [15] SambaNova - SambaNova采用RDU架构,曾重视训练市场,但2022年后转向推理即服务,推出SambaNova Suite企业AI系统 [16][18] - 2024年裁员15%并完全转向推理,聚焦政府、金融和医疗等私有化模型部署需求强烈的领域 [18][19] - 提供多语言文本分析、智能问答等推理服务,商业化路径逐渐清晰 [19] 技术对比 - Nvidia在训练市场的优势包括CUDA生态、HBM内存和NVLink网络技术,初创公司难以竞争 [21][22] - 推理任务内存负担低,无需存储梯度和复杂网络通信,适合初创公司设计专用芯片 [21] - 未来AI芯片竞争将更注重成本、部署和可维护性,推理市场成为战略重点 [23]
芯片新贵,集体转向
半导体行业观察· 2025-05-10 02:53
AI芯片行业趋势 - AI芯片行业正从大规模训练市场转向更具现实落地潜力的推理市场,Nvidia在训练市场占据绝对主导地位,而其他公司如Graphcore、英特尔Gaudi等纷纷转向推理领域 [1] - 训练市场门槛极高,需要重资本、重算力和成熟的软件生态,新晋企业难以与Nvidia竞争,推理市场则更易规模化和商业化 [1][4] - 推理市场的优势在于内存和网络需求较低,适合初创企业切入,而Nvidia在训练市场的优势包括CUDA生态、HBM内存和NVLink技术 [21][22] Graphcore转型 - Graphcore曾专注于训练芯片IPU,其Colosual MK2 GC200 IPU采用台积电7nm制程,性能接近Nvidia A100,2020年估值达28亿美元 [4] - IPU在稀疏数据处理(如分子研究)和医疗领域表现突出,微软曾用于新冠X光片识别,速度比传统芯片快10倍 [5] - 由于训练市场竞争失败,Graphcore被软银收购后转向推理市场,推出轻量级推理方案,聚焦金融、医疗和政府场景 [5][6] 英特尔Gaudi策略调整 - 英特尔2019年以20亿美元收购Habana Labs,Gaudi2采用7nm制程,吞吐量性能比Nvidia A100高2倍 [7] - 内部管理混乱导致Gaudi市场表现不佳,2023年转向"训练+推理并重",Gaudi3强调推理性价比,成本优势达30% [9][10] - 英特尔终止Falcon Shores开发,Gaudi3现面向企业私有化部署,如语义搜索和客服机器人 [10][11] Groq技术定位 - Groq创始人曾参与Google TPU开发,其LPU架构采用确定性设计,专注低延迟推理,适合大模型推理任务 [13] - 2024年展示Llama 2-70B模型推理速度达300 token/秒,吸引金融、军事等延迟敏感领域客户 [15] - Groq转型推理即服务(Inference-as-a-Service),通过GroqCloud平台提供API,与LangChain等生态集成 [16] SambaNova业务转向 - SambaNova的RDU芯片曾主打训练优势,但2022年后转向推理即服务,推出企业AI系统SambaNova Suite [17][19] - 聚焦金融、政府等私有化部署需求,提供合规化推理解决方案,与拉美金融机构和欧洲能源公司合作 [20][21] - 2024年裁员15%,完全放弃训练市场,专注推理商业化 [19] 技术对比与市场逻辑 - 训练芯片需复杂内存层级(HBM/DDR)和全互联网络,Nvidia凭借CUDA生态和硬件优化占据绝对优势 [21][22] - 推理芯片门槛较低,初创企业可通过垂直场景(如医疗、金融)或技术差异化(如Groq的低延迟)竞争 [23] - 行业进入"真实世界"阶段,竞争焦点从算力转向成本、部署和维护便利性 [23]