Workflow
XPU
icon
搜索文档
Broadcom's Semiconductor Growth Picks Up: A Sign of More Upside?
ZACKS· 2025-12-24 17:05
博通公司AI业务强劲增长 - 公司半导体收入受益于用于训练生成式AI模型的专用集成电路XPU的强劲需求 在2025财年第四季度 AI收入同比增长74%至65亿美元[1] - 2025财年第四季度 XPU采用加速 因企业持续使用其训练大语言模型并通过推理API和应用程序实现平台货币化 Alphabet和Meta Platforms是主要用户[1] - 公司客户群扩大 现已包括Anthropic 推动了增长 在2025财年第三季度 公司获得一笔100亿美元的订单 向Anthropic出售Alphabet最新的TPU Ironwood机架 在2025财年第四季度 又从同一客户获得一笔价值110亿美元的额外订单[2] - 公司当前AI交换机的订单积压超过100亿美元 因其最新的每秒102太比特的Tomahawk 6交换机持续获得市场青睐[2] - 公司预计2026财年第一季度AI收入将同比增长一倍 达到82亿美元[2] 博通公司网络与半导体业务展望 - 公司网络产品组合从Tomahawk 6产品以及Jericho 4以太网结构路由器的强劲需求中获益[3] - 公司拥有丰富的合作伙伴基础 包括OpenAI、Walmart、NVIDIA、Canonical、Arista Networks、Alphabet、Dell Technologies、Meta Platform、Juniper和Supermicro等[3] - 公司预计2026财年第一季度半导体收入为123亿美元 意味着同比增长50%[3] - 公司预计2026财年第一季度基础设施软件收入将同比增长2%至68亿美元[3] 半导体市场竞争格局 - 博通是半导体市场的主要参与者 但正面临来自英伟达和Marvell Technology的激烈竞争[4] - 英伟达受益于AI和高性能加速计算的强劲增长 对使用基于其Hopper和Blackwell架构的GPU的生成式AI和大语言模型的需求增长 推动了数据中心收入 在2026财年第三季度 数据中心收入(占英伟达收入的89.8%)同比增长66% 环比增长25% 达到512.2亿美元[5] - Marvell Technology受益于数据中心终端市场的强劲需求环境 在2026财年第三季度 其数据中心终端市场收入同比增长39% 受AI驱动的定制XPU硅片和光电互连产品需求强劲增长的推动[6] - Marvell Technology的AI驱动定制硅业务已获得超过20个多代XPU和XPU附加插槽的订单 其设计管道已扩展到超过50个机会 价值750亿美元 凸显了超大规模企业对Marvell差异化能力日益增长的依赖[6] 公司股价表现与估值 - 博通股价在一年内上涨了45.7% 表现优于Zacks计算机和技术板块21.6%的回报率[7][8] - 该股交易存在溢价 其未来12个月市盈率为33.89倍 而整个板块为27.78倍 公司价值评分为D[11][12] - 市场对博通2026财年每股收益的共识预期为9.69美元 过去30天内上调了5.7% 意味着较2025财年报告数据增长42.1%[14]
深圳理工大学唐志敏:异构计算已成必然,软件决定芯片胜负丨GAIR 2025
雷峰网· 2025-12-24 03:19
算力概念的演进与重新定义 - “算力”是中国创造的概念,其本质是在可接受的资源与时间内完成计算任务的能力 [7][8] - 有观点提出用“Computility”一词替代“Computing Power”,以强调算力应像水电一样成为基础设施 [7] - 在传统算力基础上,衍生出“训力”(快速训练大模型)和“推力”(基于大模型快速推理)等新概念 [9][10] - 算力体系的演进可能催生多模态生成能力,例如未来或将小说直接“演”成电视剧 [10] 算力需求增长与异构计算的必然性 - 生成式AI对算力的需求持续快速增长,其增速远超制程工艺带来的性能提升 [12] - 仅靠CPU已无法满足需求,CPU主频与架构在过去二十多年未发生本质变化 [16] - 行业必然选择CPU+XPU(如GPGPU)的异构计算架构,以在通用性、性能、能耗和成本间寻求平衡 [16] XPU的本质与软件生态的核心地位 - XPU属于保守型硬件结构,仅提供计算资源,性能能否发挥取决于软件、编译器与程序员 [18][19] - 算力芯片的核心问题并非硬件架构,而是应用生态,生态包括操作系统、编译器、应用软件等所有软件的总和 [20][24] - 真正产生生产力的是应用软件而非芯片本身,成熟的软件体系对释放硬件性能至关重要 [24] - 硬件峰值性能只是指标,真实应用软件通常仅能发挥整机20%~30%的效率,优化空间巨大 [38] CPU生态格局:x86、Arm与RISC-V的挑战 - x86生态经过四五十年发展,拥有极高的市场占有率和生态惯性 [24] - 根据Gartner数据,基于x86软件的销售收入达3000多亿美元,而其年研发费用约600亿美元,远超全球服务器市场约800亿美元的总收入 [24] - Arm架构在服务器领域屡战屡败,其成功需要两个条件:掌握全栈技术的大公司弃用x86,以及端云融合促进应用迁移 [27] - RISC-V面临商业化困难,例如行业顶级人物Jim Keller创办的Tenstorrent公司已开始裁员,其芯片面临“不知卖给谁”的困境 [29] - RISC-V目前仅在软件简单的嵌入式场景(如存储控制器)应用较好,一旦进入计算领域则面临软硬件生态不成熟的多重问题 [29] - RISC-V在多核CPU所需的片上互联网络等硬件生态上尚不成熟,可能仍需依赖Arm的解决方案 [29] CUDA生态的壁垒与国产化必要性 - 硬件指令的直接支持对性能和能效始终有价值,Intel不断加入新指令即是例证 [32] - 兼容CUDA的API接口从技术角度看并不难,但复制其背后的完整软件生态(包括算力库、函数库、开发工具等)则极其困难 [32] - 国家层面已意识到生态建设的重要性,正在推动打造自主算力生态,以避免长期受制于人 [33] 芯片成功的核心:软件生态与差异化价值 - 在半导体发展放慢、中国面临制程限制的背景下,需通过跨学科交叉在系统、软件和算法层面寻求性能突破 [35] - 通过软件、编译和系统层面的优化,完全有可能在峰值性能较低的芯片上获得不错的应用效果 [44] - 实现AIGC生成影视内容等愿景,不仅需要GPGPU的计算能力,也需要GPU基础的图形渲染能力 [44] - 系统与平台厂商自研芯片能否成功,关键在于能否为产品和服务提供足够大的增值,以及能否掌控全栈软件体系 [44] - 苹果基于Arm自研芯片的成功,关键在于通过自研高性能芯片与自有软件体系结合,打造领先体验并实现产品高溢价 [45] - 架构创新不一定需要新指令系统,在现有指令体系(如RISC-V)下完全可以进行创新 [45] - 平台或系统厂商自研芯片必须有清晰的、能为系统或服务带来显著增值的差异化,否则使用成熟商用芯片是更理性的选择 [46] RISC-V的未来潜力与行业愿景 - RISC-V具备一定的包容性,有机会融合CPU、GPU和AI处理器的特性 [1] - 行业希望将RISC-V作为统一的指令系统方向,让各类处理器尽量统一到同一架构平台,以减少重复投入 [46] - 未来计算架构可能从当前的CPU+XPU异构体系,回归到以CPU为中心的新一体化架构 [47] - RISC-V有机会吸收开源体系的力量,逐步突破CUDA的生态壁垒 [47]
“惊魂暴跌”后迎反击?瑞银力挺博通(AVGO.US):2026财年AI收入或超600亿,回调属过度反应
美股IPO· 2025-12-16 23:06
文章核心观点 - 瑞银认为市场对博通财报后的股价暴跌反应过度 公司AI半导体业务前景强劲 管理层对2026财年收入预期充满信心 基于此 瑞银上调了业绩预期和目标价 [1][3][6] 财报后市场反应与管理层沟通 - 博通与甲骨文发布财报后股价大幅波动 博通两日内下跌17% [1] - 瑞银与管理层举行会议后 认为市场反应过度 该股已成为市场普遍看好的多头标的 [1][3] - 管理层明确表示 财报电话会中披露的AI业务订单积压数据(730亿美元 覆盖周期18个月)极为保守 实际交付周期将接近12个月 [4] AI业务订单积压与客户构成 - 第四财季(截至10月)公司总订单积压环比增长50% 其中AI半导体业务订单积压翻倍 [4] - 若剔除Anthropic新增的110亿美元订单 剩余订单积压仍增加200-250亿美元 主要来自谷歌和Meta 暂未包含OpenAI的订单 [4] - 向Anthropic交付的210亿美元机架订单可能因电源组件准备进度延至2027财年 [4] - Anthropic是订单积压中唯一的机架类客户 OpenAI(一旦纳入)将成为传统ASIC客户 [4] - 企业级订单积压从1100亿美元增至1620亿美元 增幅超50% 其中AI相关订单积压环比翻倍 [9] 财务预期与业务展望 - 瑞银预计博通2026财年AI半导体收入将超600亿美元 同比增长近3倍 [1] - 管理层信心表示 2026财年AI业务收入将超出当前市场预期 且将高于其所见的任何买方或卖方机构的预测值 [6] - 瑞银上调2027财年营收预期至1350亿美元(高于市场共识2%) 上调每股收益预期至14.15美元(高于市场共识1.7%) 并将目标价从472美元上调至475美元 [6] - 博通重申 2026财年AI业务收入的增速将超过2025财年 [8] 各业务线毛利率与收入预测 - 公司未明确Anthropic的210亿美元机架订单毛利率 但未反驳45%-50%的市场预期 [4] - 重申XPU业务毛利率约55% AI网络业务毛利率约80% [5] - AI机架中的博通自有组件综合毛利率约60% 但因包含转售组件 该210亿美元收入的整体毛利率将降至45%-50%区间 [5] - 博通预计AI收入综合毛利率在60%以上 但因包含转售组件 机架产品的发货毛利率会更低 [8] - 受Anthropic订单影响 2026财年毛利率将同比下滑 但营业利润率将至少与上年持平(瑞银预测2026财年营业利润率较2025财年下滑30个基点) [4][8] - 2025财年AI交换机业务收入为30亿美元 但订单数据显示2026财年可能达到120亿美元 [8] - 除交换机外 博通预计DSP业务收入将从2025财年的10亿美元增长至2026财年的50亿美元 [8] - 瑞银将2026财年AI网络业务的同比增速 从之前预估的55%调整为103% [8] 行业趋势与竞争格局 - 博通一年前预计2027年XPU+网络业务的目标市场规模约600-900亿美元(主要基于训练负载) 如今表示该数据已失效 实际规模将显著扩大 [6] - 一方面XPU业务受益于AI推理需求的加速增长 另一方面由于AI技术栈的复杂性和创新速度 AI大模型实验室正抢占博通原本预期的企业级市场(原计划采用GPU) [6] - 越来越多企业选择使用OpenAI、Anthropic等厂商的服务 而非自行微调大模型 [6][10] - 博通回应了“谷歌直接对接代工厂”的担忧 称未来5年内这种情况不太可能发生 但长期策略是拓展多元客户以分散风险 [10] - 博通对定制芯片的变现形式持开放态度 若客户有需求 不排除推出类似特许权使用费的模式 在此模式下芯片平均售价中与博通IP相关的部分会减少 但整体毛利率/营业利润率会更高 [10]
“惊魂暴跌”后迎反击?瑞银力挺博通:2026财年AI收入或超600亿,回调属过度反应
智通财经· 2025-12-16 09:27
文章核心观点 - 瑞银认为市场对博通财报的反应过度,基于管理层对AI业务前景的积极指引,该行上调了业绩预期和目标价,并认为股价回调后该股成为普遍看好的多头标的 [1] AI半导体业务收入预期 - 预计2026财年AI半导体业务收入将超过600亿美元,同比增长近3倍 [1] - 管理层对2026财年AI业务收入超出当前市场预期充满信心,并表示将高于任何买方或卖方机构的预测值 [3] - 博通重申,2026财年AI业务收入的增速将超过2025财年 [4] AI业务订单积压与交付周期 - AI业务订单积压达730亿美元,覆盖周期18个月,但管理层表示实际交付周期将接近12个月 [2] - 第四财季总订单积压环比增长50%,其中AI半导体业务订单积压翻倍 [2] - 若剔除Anthropic新增的110亿美元订单,剩余订单积压仍增加200-250亿美元,主要来自谷歌和Meta,暂未包含OpenAI的订单 [2] Anthropic机架订单详情 - Anthropic的210亿美元机架订单可能因电源组件准备进度而延至2027财年交付,但客户希望2026财年交付 [2][4] - 瑞银当前建模为2026财年交付150亿美元,剩余60亿美元在2027财年交付 [4] - Anthropic是订单积压中唯一的机架类客户,OpenAI(一旦纳入)将成为传统ASIC客户 [2] - 该机架订单因包含转售组件,整体毛利率预计在45%-50%区间,低于博通自有组件约60%的综合毛利率 [2][3] - 该订单被视为一次性合作,长期关系预计将转向标准ASIC/XPU供应模式 [3] 毛利率与营业利润率展望 - 公司未反驳市场对Anthropic机架订单45%-50%毛利率的预期 [2] - 受此影响,2026财年毛利率预计同比下滑,但营业利润率将至少与上年持平(瑞银预测下滑30个基点) [2] - AI业务综合毛利率接近60%,其中XPU业务毛利率约55%,AI网络业务毛利率约80% [3][4] - 2026财年毛利率最终取决于新增AI订单的结构 [4] AI网络与XPU业务增长 - 2025财年AI交换机业务收入为30亿美元,但订单数据显示2026财年可能达到120亿美元 [4] - DSP业务收入预计从2025财年的10亿美元增长至2026财年的50亿美元 [5] - 瑞银将2026财年AI网络业务的同比增速预估从55%上调至103% [5] - 博通认为XPU业务的增速不会超过AI网络业务 [4] - AI网络业务势头强劲,由AI扩展需求驱动的规模化扩张及早期以太网扩容需求带动 [4] 目标市场规模与市场趋势 - 一年前预计2027年XPU+网络业务目标市场规模为600-900亿美元,如今该数据已失效,实际规模将显著扩大 [3] - 一方面XPU业务受益于AI推理需求的加速增长,另一方面AI大模型实验室正抢占博通原本预期的企业级市场 [3] - 出现“AI实验室抢占更多市场”的趋势,原计划采用GPU的企业级市场正逐渐转向使用OpenAI、Anthropic等服务 [5] - 越来越多的企业客户选择使用AI实验室的服务,而非自行微调大语言模型,因为将AI技术栈投入生产的流程较为复杂 [5] 企业级订单与客户集中度 - 企业级订单积压从1100亿美元增至1620亿美元,增幅超50% [5] - 博通回应“谷歌直接对接代工厂”的担忧,称未来5年内不太可能发生,但长期策略是拓展多元客户以分散风险 [5] 财务预期与目标价调整 - 瑞银上调2027财年营收预期至1350亿美元(高于市场共识2%),上调每股收益预期至14.15美元(高于市场共识1.7%) [3] - 将目标价从472美元上调至475美元 [1][3] 定制芯片变现模式 - 博通对定制芯片的变现形式持开放态度,不排除推出类似特许权使用费的模式 [6] - 在此模式下,芯片平均售价中与博通IP相关的部分会减少,但整体毛利率/营业利润率会更高 [6] - 公司在HBM业务中已实现对完整XPU解决方案的掌控,但会根据客户需求灵活调整 [6]
“惊魂暴跌”后迎反击?瑞银力挺博通(AVGO.US):2026财年AI收入或超600亿
新浪财经· 2025-12-16 08:43
核心观点 - 瑞银认为市场对博通财报的反应过度,基于管理层对AI半导体业务增长的强劲指引,上调了业绩预期和目标价,并认为股价回调后该股成为普遍看好的多头标的 [1] 财务表现与预期 - 瑞银预计博通2026财年AI半导体业务收入将超过600亿美元,同比增长近3倍 [1] - 瑞银上调2027财年营收预期至1350亿美元,高于市场共识2%,上调每股收益预期至14.15美元,高于市场共识1.7%,并将目标价从472美元上调至475美元 [1][3] AI业务订单与积压 - 公司披露AI业务订单积压达730亿美元,覆盖周期18个月,但管理层表示实际交付周期将接近12个月,数据极为保守 [2] - 第四财季公司总订单积压环比增长50%,其中AI半导体业务订单积压翻倍 [2] - 若剔除Anthropic新增的110亿美元订单,剩余订单积压仍增加200-250亿美元,主要来自谷歌和Meta,暂未包含OpenAI的订单 [2] - 企业级订单积压从1100亿美元增至1620亿美元,增幅超50%,其中AI相关订单积压环比翻倍 [5] 大客户订单详情 - 向Anthropic交付的210亿美元机架订单可能因电源组件准备进度延至2027财年,Anthropic是订单积压中唯一的机架类客户 [2] - 瑞银将Anthropic的发货量建模为:2026财年150亿美元,剩余60亿美元在2027财年交付 [4] - OpenAI一旦纳入订单积压,将成为传统ASIC客户 [2] - 公司回应“谷歌直接对接代工厂”的担忧,称未来5年内这种情况不太可能发生,长期策略是拓展多元客户以分散风险 [5] 毛利率与利润率展望 - 公司未明确Anthropic的210亿美元机架订单毛利率,但未反驳45%-50%的市场预期 [2] - 受Anthropic订单影响,2026财年毛利率将同比下滑,但营业利润率将至少与上年持平 [2] - 瑞银预测2026财年营业利润率较2025财年下滑30个基点 [2] - AI业务综合毛利率接近60%,其中XPU业务毛利率约55%,AI网络业务毛利率约80% [3][4] - AI机架中的博通自有组件综合毛利率约60%,但因包含转售组件,该210亿美元收入的整体毛利率将降至45%-50%区间 [3] - 2026财年的毛利率将取决于新增AI订单的结构,但预计毛利率同比下滑,营业利润率大概率同比持平 [4] AI业务增长动力与市场趋势 - 公司重申,2026财年AI业务收入的增速将超过2025财年 [4] - 公司预计2026财年AI业务收入将超出当前市场预期,且将高于其所见的任何买方或卖方机构的预测值 [3] - 一年前预计2027年XPU+网络业务的目标市场规模约600-900亿美元,如今该数据已失效,实际规模将显著扩大 [3] - XPU业务受益于AI推理需求的加速增长 [3] - 出现“AI实验室抢占更多市场”的趋势,这些市场原本是博通预期的企业级AI市场,如今正逐渐转向AI实验室 [5] - AI实验室需求增加是因为将AI技术栈投入生产的流程复杂,越来越多企业客户选择使用OpenAI、Anthropic等服务,而非自行微调大模型 [3][5] 各细分业务表现 - XPU业务的增速不会超过AI网络业务 [4] - AI网络业务当前势头强劲,由AI扩展需求驱动的规模化扩张以及早期以太网扩容需求带动 [4] - 2025财年AI交换机业务收入为30亿美元,但订单数据显示2026财年可能达到120亿美元 [4] - 除交换机外,博通预计DSP业务收入将从2025财年的10亿美元增长至2026财年的50亿美元 [5] - 瑞银将2026财年AI网络业务的同比增速,从之前预估的55%调整为103% [5] - Anthropic的机架规模订单属于一次性合作,长期来看双方关系将转向标准ASIC/XPU供应模式 [3] 商业模式与策略 - 博通对定制芯片的变现形式持开放态度,若客户有需求,不会排除推出类似特许权使用费的模式,在此模式下芯片平均售价中与博通IP相关的部分会减少,但整体毛利率/营业利润率会更高 [6] - 公司在HBM业务中已实现对完整XPU解决方案的掌控,但会根据客户需求灵活调整 [6]
“惊魂暴跌”后迎反击?瑞银力挺博通(AVGO.US):2026财年AI收入或超600亿,回调属过度反应
智通财经网· 2025-12-16 08:37
文章核心观点 - 瑞银认为市场对博通财报的反应过度 基于管理层对AI半导体业务增长的积极指引 该行上调了业绩预期和目标价 并认为股价回调后该股成为普遍看好的多头标的 [1] AI业务订单与积压 - AI业务订单积压达730亿美元 覆盖周期18个月 但管理层预计实际交付周期将接近12个月 [2] - 第四财季总订单积压环比增长50% 其中AI半导体业务订单积压翻倍 [2] - 若剔除Anthropic新增的110亿美元订单 剩余订单积压仍增加200-250亿美元 主要来自谷歌和Meta 暂未包含OpenAI订单 [2] - 企业级订单积压从1100亿美元增至1620亿美元 增幅超50% 其中AI相关订单积压环比翻倍 [5] 2026财年AI业务收入预期 - 预计2026财年AI半导体收入将超600亿美元 同比增长近3倍 [1] - 管理层对2026财年AI业务收入超出当前市场预期充满信心 并表示将高于任何买方或卖方机构的预测值 [3] - 重申2026财年AI业务收入的增速将超过2025财年 [4] Anthropic大额订单细节 - 向Anthropic交付的210亿美元机架订单可能因电源组件准备进度延至2027财年 [2] - Anthropic是订单积压中唯一的机架类客户 OpenAI若纳入订单将成为传统ASIC客户 [2] - 瑞银将Anthropic发货量建模为:2026财年150亿美元 剩余60亿美元在2027财年交付 [4] - 该210亿美元机架订单的整体毛利率预计在45%-50%区间 [2][3] - 该机架规模订单被视为一次性合作 长期关系将转向标准ASIC/XPU供应模式 [3] 毛利率与营业利润率展望 - AI业务综合毛利率接近60% 其中XPU业务毛利率约55% AI网络业务毛利率约80% [3][4] - 因包含转售组件 机架产品的发货毛利率会降至45%-50% [3][4] - 预计2026财年毛利率将同比下滑 但营业利润率将至少与上年持平 [2][4] - 瑞银预测2026财年营业利润率较2025财年下滑30个基点 [2] AI网络与交换机业务增长 - 2025财年AI交换机业务收入为30亿美元 但订单数据显示2026财年可能达到120亿美元 [4] - DSP业务收入预计将从2025财年的10亿美元增长至2026财年的50亿美元 [5] - 瑞银将2026财年AI网络业务的同比增速预估从55%上调至103% [5] - AI网络业务当前势头强劲 由AI扩展需求驱动的规模化扩张及早期以太网扩容需求带动 [4] 目标市场规模与行业趋势 - 一年前预计2027年XPU+网络业务目标市场规模约600-900亿美元 如今该数据已失效 实际规模将显著扩大 [3] - XPU业务受益于AI推理需求的加速增长 [3] - 出现“AI实验室抢占更多市场”的趋势 这些市场原本是预期的企业级AI市场 如今正逐渐转向AI实验室 [5] - AI技术栈的复杂性和创新速度 使得越来越多企业选择使用OpenAI、Anthropic等服务 而非自行微调大模型 [3][5] 客户关系与业务模式 - 回应“谷歌直接对接代工厂”的担忧 称未来5年内不太可能发生 长期策略是拓展多元客户以分散风险 [5] - 对定制芯片的变现形式持开放态度 不排除推出类似特许权使用费的模式 该模式下整体毛利率/营业利润率会更高 [6] - 在HBM业务中已实现对完整XPU解决方案的掌控 但会根据客户需求灵活调整 [6] 财务预期与目标价调整 - 瑞银上调2027财年营收预期至1350亿美元 高于市场共识2% [3] - 上调每股收益预期至14.15美元 高于市场共识1.7% [3] - 将目标价从472美元上调至475美元 [1][3]
博通CEO:硅光是必经之路,但还要时间
半导体行业观察· 2025-12-15 01:33
博通对硅光子技术的看法 - 公司首席执行官认为硅光子技术短期内不会对数据中心产生影响,尽管其最终将成为必然选择[2] - 该技术成为必需品前需经历两波创新:扩展铜基互连技术以及发展可插拔光器件[2] - 只有当可插拔光学器件无法满足需求时,行业才会转向硅光子技术,公司已为此进行研发准备[2] 人工智能硬件业务表现强劲 - 公司拥有价值730亿美元的积压订单,其中超过500亿美元来自超大规模客户的定制AI加速器订单[3] - 首席执行官认为客户对AI硬件的需求不会降温,并以一位新客户10亿美元及Anthropic公司额外110亿美元的XPU订单作为例证[3] - 过去三个月的订单量前所未见,积压订单预计将继续增长,且供应链与产能(如台积电、新加坡新工厂)可满足需求[4] 2025财年第四季度及未来财务表现 - 第四季度半导体业务营收达110亿美元,同比增长35%,其中AI产品贡献67亿美元[4] - 公司AI硬件营收在不到三年内增长了10倍[4] - 基础设施软件业务营收为69亿美元,同比增长19%,增长主要来自VMware销售,其软件利润率上升6个百分点至78%[4] - 公司给出2026财年第一季度营收预期为191亿美元,同比增长28%[4] 市场反应 - 公司股价在业绩公布后立即上涨约3%,但随后迅速回落5%[5]
【招商电子】博通FY25Q4跟踪报告:AI在手订单超730亿美元,指引FY26Q1 AI收入同比翻倍
招商电子· 2025-12-14 15:15
博通FY2025Q4业绩核心表现 - 第四季度营收180.15亿美元,创历史单季新高,同比增长28%,环比增长13%,略超此前约174亿美元的指引[3] - 第四季度毛利率为77.9%,同比增长1个百分点,环比下降0.4个百分点,高于此前约77.7%的指引[3] - 公司合并未完成订单达1620亿美元,创历史新高,其中AI业务订单远高于非AI业务[3] - 2025财年全年合并营收达到创纪录的640亿美元,同比增长24%[9] 半导体业务分析 - 第四季度半导体部门收入110.72亿美元,占总收入61%,同比增长35%[4] - 半导体部门毛利率为68%,同比上升100个基点,运营利润率为59%,同比提升250个基点[4] - AI半导体业务收入达65亿美元,同比增长74%,连续十一个季度环比增长[4] - 非AI半导体业务收入为46亿美元,同比增长2%[4] - XPU业务同比增加一倍以上,AI网络业务需求持续强劲[4] 基础设施软件业务分析 - 第四季度基础设施软件收入为69.43亿美元,占总收入39%,同比增长19%,超出此前67亿美元的预期[4] - 基础设施软件部门毛利率高达93%[4] - 第四季度总合同价值已超过104亿美元,去年同期为82亿美元[13] - 基础设施软件积压订单达730亿美元,高于去年同期的490亿美元[13] 未来业绩指引 - 预计FY26Q1合并营收约为191亿美元,同比增长28%,环比增长6%[5] - 预计FY26Q1合并毛利率约为76.9%,同比下降2.2个百分点,环比下降1个百分点,主要因AI营收组合较高[5] - 预计FY26Q1半导体部门收入为123亿美元,同比增长50%,环比增长11%[5] - 预计FY26Q1人工智能收入为82亿美元,同比增长100%,环比增长27%[5] - 预计FY26Q1非人工智能半导体收入约41亿美元,同比持平,环比下降11%[5] - 预计FY26Q1基础设施软件收入为68亿美元,同比增长1%,环比下降2%[5] AI业务增长动力与订单情况 - 当前AI业务在手订单超过730亿美元,占公司合并积压订单1620亿美元的近一半,预计未来18个月完成交付[6] - 公司预计2026年客户AI支出势头将持续加速[6] - 第四季度再获Anthropic 110亿美元订单,计划于2026年底交付[6] - 第五家客户带来10亿美元订单,可能于2026年稍晚交付[6] - AI交换机积压订单超过100亿美元,102Tbps Tomahawk 6交换机是目前唯一具备该能力的产品,订单以创纪录速度预订[6] - 在DSP、光学组件和PCIe交换机上也获得了创纪录的订单[6] 财务状况与资本配置 - 第四季度调整后EBITDA为122.1亿美元,同比增长34%,占营收的68%,高于此前67%的指引[9][15] - 第四季度自由现金流为75亿美元,占营收的41%[15] - 截至第四季度末,库存金额为23亿美元,环比增长4%,库存周转天数为58天,环比减少8天[3][15] - 截至第四季度末,公司现金及现金等价物为162亿美元,未偿还债务总额为671亿美元[15] - 第四季度向股东支付了28亿美元现金股息,普通股季度现金股息为每股0.59美元[16] 管理层对关键问题的阐述 - 730亿美元AI积压订单是截至当前已锁定的未来18个月最低交付额,考虑到交货周期,预计期间会有更多新订单,实际收入应高于此数值[18] - 针对客户自研AI加速器的趋势,管理层认为这是一项高门槛的战略投资,考虑到技术快速演进和竞争压力,完全转向自研不会成为主流趋势[18] - 针对TPU等定制芯片以“类商用”模式提供给其他客户的现象,管理层认为这更多是市场选择的扩展,其替代方案通常是商用GPU,而非直接替代定制ASIC业务[18] - AI业务的毛利率确实低于软件及其他半导体业务,且系统级销售会进一步稀释毛利率百分比,但由于营收增长极快,运营杠杆效应显著,绝对利润额将持续提升[19] - 供应链管理具有优势,许多关键有源组件由内部生产,提供了高可见性,在先进封装方面通过新加坡工厂实现部分内包以保障供应链[19][22] - 非AI半导体业务中,宽带业务复苏势头良好,但其他领域如企业存储表现平稳,整体处于底部企稳状态[22]
AI巨头暴跌背后的真相
格隆汇APP· 2025-12-14 10:06
AI板块市场情绪与事件冲击 - 甲骨文与博通财报后股价暴跌引发美股AI板块大跌,市场情绪受挫[2] - 博通因部分数据未达市场狂热预期,绩后单日重挫11.43%[3] - 甲骨文将部分为OpenAI开发的数据中心竣工时间从2027年推迟至2028年[3] - AI基建公司Fermi因重要客户取消租约,股价盘中崩盘暴跌46%[4] - 抛售潮蔓延至光模块、交换机、电力、存储等AI产业链,多只热门概念股跌幅超10%,纳指大跌1.91%[6] - “AI泡沫崩盘”的担忧在市场蔓延[7] AI行业基本面与需求状况 - AI板块大跌核心逻辑并非AI需求突然收缩[9] - 博通未来18个月AI相关订单已突破730亿美元,需求强劲[10] - 甲骨文2026财年第二季度剩余履约义务(RPO)达5230亿美元,环比增长15%[10] - 甲骨文本季度新增合同额约677亿美元,按报告测算对应新签订单约838亿美元,同比增长约583%,增量主要由Meta、英伟达等巨头算力合同驱动[10] - 甲骨文未来12个月内预计确认收入的cRPO期末余额约531亿美元,同比增长40%,环比显著提升,显示短期订单落地节奏加快[10] - 甲骨文上调未来资本开支预期,对算力建设信心充足[11] 市场定价逻辑的转变 - 市场正对AI产业链进行深度的“理性重新定价”[12] - 过去两年AI资产上涨逻辑为:需求无穷→订单不断→规模先行→估值后算,凭借“订单增长”获得估值溢价[13] - 当前市场定价逻辑开始切换,从单纯追逐增长规模,转向审视增长的盈利质量、投资回报周期及订单兑现确定性[13] - 博通绩后大跌且无资金快速抄底,是这一转变的显著代表[14] - 博通明确从“卖高毛利芯片”向“卖系统”转型,需对整套系统可运行性负责[14] - 因系统销售中需“过手”大量非自制组件,博通管理层指引下一季度合并毛利率将环比下降约100个基点[14] - 市场意识到AI产业链中游环节已非确定高利润赛道,高估值溢价需重新校准[14] 资金流向与市场动向 - 资金并未完全撤离市场,美联储态度温和,道指连续三周上涨,市场流动性充裕[15][16] - 资金从拥挤的AI中游配套板块流出,转向现金流清晰、估值未被极端拉高、对利率环境不敏感的稳健资产[17] - 此次调整本质是资金在AI产业链分化中寻找更具确定性的价值锚点,而非否定AI产业[18] 行业发展阶段与投资逻辑演变 - 市场对AI行业的关注逻辑已从“算力突破期”迈入“系统交付期”[20] - 算力突破期核心命题是“能否造出满足需求的算力硬件”,市场追逐技术突破与产能扩张[21] - 系统交付期核心命题变为“如何高效交付稳定可靠的AI系统”,市场开始计较成本控制、利润率水平、资本开支效率与投资回报周期[21] - OpenAI订单兑现的不确定性让市场更加看重“真实需求”与“确定性增长”[22] - 依赖单一客户大额订单预期的企业,估值压力将加大[23] - 能对接多元客户、需求来自真实产业落地、订单兑现路径清晰的企业,将获得更多资金青睐[23] - 在AI股普遍显著高估的环境下,此转变必然造成巨大波动[24] 产业链不同环节的影响与前景 - 中游配套企业(光模块、交换机、激光器等)此前被视为“AI资本开支代理变量”,享受估值红利[25] - 随着市场审视整体投资回报与订单确定性,其估值敏感度显著上升,股价波动将放大[25] - 唯有保持高毛利、稳定交付能力且客户结构多元的中游企业方能穿越周期[25] - 核心定价权企业(如英伟达、台积电)作为AI算力核心供给方和制造方,掌握产业链定价权[25] - 在不确定性上升时,核心定价权企业的业绩确定性成为资金“避风港”,抗跌属性凸显[25] - 下游云厂商(如亚马逊、Meta等巨头)有强大应用平台生态创造巨额利润,支撑AI资本开支,并能快速商业化兑现[25] - 近一年来,亚马逊、Meta的估值未被极端拉高,在此次抛售潮中回撤幅度相对小[26] - 凭借强大的应用平台生态和持续盈利能力,AI技术落地能进一步放大其生态价值,后续若跟随调整可能跌出长线布局的“黄金坑”[28] 中长期行业展望 - 此次AI板块大跌不是泡沫破裂,而是市场走向成熟的必经之路[29] - 未来AI板块分化将成为常态[29] - 单纯依赖“AI概念”、客户结构单一、缺乏盈利支撑的企业,可能面临持续估值挤压[29] - 真正具备核心技术、稳定盈利能力、多元客户结构与清晰成长路径的企业,将在市场理性筛选中脱颖而出[29]
AI算力新十年:技术革新、生态协同与商业闭环,共探「下一个寒武纪」之路丨GAIR 2025
雷峰网· 2025-12-13 12:05
文章核心观点 在算力成为基础设施的时代,产业各界正从芯片架构、软件生态、商业应用等多维度探索能够穿越周期、占据价值链顶端的技术路径与战略 核心在于通过软件定义、生态协同、应用驱动和系统级创新来突破硬件限制,构建自主可控的AI算力体系 [1][3][35] 技术路径与架构创新 - 算力芯片发展面临核心矛盾:摩尔定律放缓导致传统处理器迭代变慢,而生成式AI对算力的需求呈指数级增长 [7] - 应对矛盾的主流方向是推动“异构计算”,但带来了编程复杂度激增和软件兼容性差的新瓶颈 [7] - 反对指令系统碎片化,认为现有指令系统足以支撑架构创新,RISC-V应成为产业统一标准,其包容性可整合CPU、GPU及AI处理器特性 [9] - 计算芯片产业呈现螺旋式发展,未来将回归融合异构特性的CPU中心化架构 [9] - 在工艺受限背景下,需依靠新的技术路径超越国际领先者,国内创新企业路径呈现多元化特征 [32] - 数据中心AI芯片部分企业摒弃对单卡算力的盲目追求,转而构建更高效的系统,例如TPU路线通过打造大规模超节点、省去交换机和HBM,在集群层面追求更高性价比 [33] - 大算力芯片正在向三维架构变革,先进封装及其检测设备成为决定性能和良率的核心,光电合封被认为是下一代AI算力的基石,能以数量级优势提升集成度、降低功耗 [33] 软件生态的关键作用 - 软件生态对算力芯片产业具有决定性作用,生态是绕不开的命题,X86架构历经四五十年沉淀的软件生态壁垒极高 [7] - 用户选择的核心在于软件优化的积累,而非单纯硬件性能 [8] - 当前算力性能突破需跨学科交叉与软件深度优化双轮驱动,通过软硬件协同优化,在现有制程限制下实现算力效能最大化 [8] - 中国半导体受全球趋势及制程限制,必须通过软件定义算力,打破传统软硬件隔阂 [8] - 软件生态是GPU硬件行业的胜负手,其竞争已超出硬件性能本身 [16] - 软件层面需要深度拥抱开源软件生态,如DeepSeek,Qwen,ChatGLM3等,借助生态的力量充分释放硬件的算力 [17] - 破局国产算力技术生态需要拥抱开源,构建开放、统一的技术体系,避免“烟囱式”发展 [18] - 国产AI推理芯片的发展方向之一是软件生态兼容,以平衡算法迭代与算力利用率 [28] 产业发展趋势与挑战 - 2025年,AI芯片消耗将迎来重要转折,推理芯片消耗量或将超过训练芯片,源于企业端推理需求的爆发,例如谷歌日调用量已达43万亿Token,字节跳动近期或突破40万亿 [27] - 全球算力投资资本支出预计将超过4600亿美金,超过美国登月计划的总投入,中国市场中BAT等互联网大厂占据了68%以上的份额 [16] - AI商业化主战场包括AIGC在数字人、游戏、影视行业,今年国内产值预计超1000亿,全球数字内容生成市场规模已近500亿美金,加上AI编程领域、虚拟交互 [16] - 国产算力行业将迎来淘汰赛,由于系统级产品研发需海量资金投入,今年国内算力企业正全力冲击资本市场,预计未来一年A股和港股至少6家公司冲刺上市,资金技术储备不足、生态布局薄弱的企业或将加速出局 [17] - 大模型发展有从“百模大战”向“十模争锋”的收敛趋势 [12] - 模型发展正逐渐走向集约化路线,不是只比谁规模大,而是看谁能用最少的数据、最少的算力、最少的能耗做出好用的模型 [13] - 中国已成为大模型领域的开源生态领导者,HuggingFace Top10模型中,9个来自中国公司,在实际商业化场景中,中国开源模型生成的Token量已超过全球其他开源模型总和 [16] - 中国AI发展路径为“数据飞轮”模式:应用生产数据-数据训练算法-算法定义芯片-芯片赋能规模化应用,区别于美国通过政策强推技术突破的路径 [27] 企业实践与解决方案 - 燧原科技得益于丰富的商业化应用场景,产品迭代获得了坚实支撑,国民级爆款应用已经用到了燧原的算力 [17] - 鹏城实验室作为国家实验室定位“保底线”,致力于保障国产算力主权和模型的自主可控 [13] - 鹏城实验室发布了2000亿参数的大语言模型后,又推出了33B和2B参数的中小尺寸模型,并将2B参数模型全过程开源,包括所有数据和数据配比、权重和训练环节 [13] - 鹏城实验室正与气象、金融、文博、生态环境、智能制造等行业合作,推动大模型在典型场景中的示范应用 [13] - 摩尔线程提供了从Model Studio一站式平台、深度融合的MT-MegatronLM与DeepSpeed框架,到底层MUSA计算库及KuaE集群平台的全栈软件支持 [23] - 摩尔线程构建了贯穿训练前、中、后期的智能工具体系,包括SimuMax支持训练资源规划与时间估算,慢节点检测系统,分布式Profiling系统等 [23] - 对于特定大模型,千卡集群需耗时173天,而在万卡集群上,即便模型浮点运算利用率会从40%降至30%,训练时间也能被大幅压缩至23天 [21] - 大模型训练完成时间越短越好,最好不要超过1个月 [21] - 云天励飞已完成芯片架构升级,实现全流程国产工艺转型,构建起覆盖端边云的产品矩阵 [29] - 国产AI推理芯片的发展方向包括突破存储技术瓶颈支持3D memory技术,以及通过异构计算优化性价比,目标在未来三到五年内让百万Token成本降至1元以内 [28] 边缘与端侧算力创新 - 随着桌面级AI应用井喷,专为这些场景设计的LPU架构等应运而生,它们通过3D DRAM堆叠等技术,在有限功耗和成本下实现惊人的内存带宽 [33] - 在端侧AI芯片方向,存算一体与近存计算成为关键,例如将计算单元嵌入存储芯片的3D-CIM架构,或在LPDDR内存中集成处理能力的PIM方案,目标是在手机有限的面积和功耗预算内,流畅运行数10亿参数的大模型 [33]