Workflow
Axion CPU
icon
搜索文档
黄仁勋称CPU将死,英伟达想靠GPU制霸,科技巨头们不答应
36氪· 2025-12-09 07:53
文章核心观点 - GPU在AI计算时代的重要性急剧提升,正成为数据中心和终端设备的核心算力驱动力,但CPU因其在通用任务处理和系统调度上的不可替代性,短期内不会被GPU彻底取代,未来更可能是协同与异构计算格局 [1][3][4] - 科技巨头为避免算力供应受制于人并控制成本,正积极推动自研AI芯片(包括GPU、NPU、专用加速器),英伟达虽处领先地位但难以独占市场,行业竞争焦点正从硬件性能转向完整的AI软件生态构建 [7][9][15] 美国政府政策与英伟达动态 - 美国政府允许英伟达向中国等地区的“获准客户”销售H200 AI芯片,但将获得其在该地区销售额的25%分成 [1] - 英伟达创始人黄仁勋公开质疑CPU在未来以加速计算和AI为主导的时代中的必要性,暗示GPU可能成为核心,这与其长期倡导的“加速计算”理念一致 [1] - 受益于AI大模型兴起,英伟达数据中心GPU收入从2023年的150亿美元暴涨至2025财年的1152亿美元,预计2026财年该数字将继续飙升 [1] GPU与CPU的技术角色与关系 - CPU优势在于强大的单线程性能、成熟的指令体系和完善的生态,擅长处理复杂逻辑任务、运行操作系统及进行系统调度,是各类智能设备不可或缺的“大脑” [4] - GPU优势在于极端的并行计算能力,拥有数千至上万个核心,在深度学习训练、图像渲染、科学计算等重复性矩阵化任务中,效率和速度远超CPU [4] - CPU与GPU是协同关系而非零和替代,CPU像“管理人员”进行任务调度,GPU像“熟练工人”进行批量处理,两者在系统中各司其职 [4][6] - 理论上GPU完全取代CPU需重构整个计算体系,包括设计专精通用任务的核心架构、更新指令集与系统架构,面临巨大生态阻力,实际难以实现 [6] 资本市场与行业热度 - 中国通用GPU公司摩尔线程上市首日股价从114.28元涨至约650元,显示资本市场对GPU企业的高度热情 [3] - 摩尔线程在上市后宣布将发布以MUSA为核心的全栈发展战略及新一代GPU架构 [3] 云计算与数据中心算力重构 - 为满足AIGC及大模型训练暴增的并行计算需求,云端基础设施正发生根本改变,GPU集群已成为各大云厂商的首选 [6] - 几乎所有头部云厂商在采购第三方GPU(如英伟达产品)的同时,都在推动自研芯片计划,根本目的是避免算力供应完全受制于人并优化长期成本与能效 [7][9] - 阿里云自研含光芯片并引入第三方GPU构建新集群 [7] - 百度自研昆仑芯片针对AI算力深度优化,拟拆分独立上市以分享AI计算红利 [7] - 亚马逊通过自研Graviton(ARM CPU)、Trainium、Inferentia等芯片构建异构AI算力集群 [9] - 谷歌云计算中心部分使用自研TPU和Axion CPU,推理集群正逐渐转向以自研芯片为主 [9] 终端侧计算架构演变 - 从PC、手机到汽车,越来越多的AI任务(如大模型推理、智能助手、实时生成内容)开始在本地执行,推动终端设备需要具备强大的高并行算力 [10] - 在手机领域,旗舰SoC通过强化集成GPU与NPU的加速能力来提升AI算力,AI算力已成为“AI手机”的核心卖点,许多系统级AI功能底层已从CPU迁移至GPU/NPU [10] - 在PC领域,“端侧AI算力”取代CPU主频成为关键指标,GPU承担了大部分高密度矩阵计算任务,厂商对核显的研发投入显著增加 [11][13] - 在自动驾驶领域,感知、融合、规划等任务需瞬时处理海量数据,天然依赖GPU高并行优势,主流方案(如地平线、特斯拉、英伟达)均采用围绕GPU构建的异构架构 [13] 行业竞争与生态格局 - 英伟达的核心优势在于其CUDA生态经过十余年沉淀已成为事实标准,构筑了强大的竞争壁垒 [15] - AMD通过力推更开放的ROCm生态来挑战CUDA,并在MI300系列上已获得不少厂商认可 [15] - 英特尔采取双线策略:一方面依靠Gaudi加速器冲击AI市场,另一方面利用PC生态领导地位在终端侧布局AI处理器 [15] - 华为已构建从底层硬件(昇腾芯片)、AI框架(昇思MindSpore、CANN)到操作系统(鸿蒙)的完整AI生态链条,在争夺行业话语权上具备优势 [15] - 行业竞争焦点在于谁能构建起完整的AI生态,从而在AI原生时代掌握主动权 [16]
谷歌(GOOGL.US)TPU引爆行业趋势!英特尔(INTC.US)或成背后“隐形赢家”
智通财经网· 2025-11-28 01:16
谷歌TPU进展与行业影响 - 谷歌第七代张量处理单元(TPU)“Ironwood”近期行业关注度加速上升,主要得益于Gemini 3模型的成功发布及Meta可能采用TPU的猜测 [1] - 第七代Ironwood TPU相较于第六代Trillium,性能/能效比提升2倍,并用于训练目前全球领先的多模态与推理模型Gemini 3 [2] - 市场猜测Meta考虑从2027年开始斥资数十亿美元购买谷歌TPU,同时Anthropic承诺从2026年起使用多达100万块TPU [2] 半导体制造格局与台积电角色 - 台积电目前是谷歌TPU及其ARM架构Axion CPU的主要制造商,推测Ironwood TPU使用台积电N3制程 [3] - 台积电先进节点(7nm及以下)产能“仍然比主要客户的预期需求少约三倍”,同时英伟达持续要求额外产能 [3] - 台积电预计由于强劲需求“未来每年销售额将持续创下新高” [3] 英特尔代工服务(IFS)的潜在机遇 - 谷歌TPU需求增长可能推动制造布局分散,为英特尔代工服务创造潜在机会,已有猜测谷歌考虑在TPUv9中采用IFS的先进封装技术 [4] - 由于台积电CoWoS产能限制,英特尔的Foveros和EMIB先进封装技术自去年以来已成为有利替代方案,且该业务已实现独立盈利 [4] - 英特尔代工服务在美国的广泛产能符合谷歌对地域和产能多元化的需求,类似特斯拉与三星达成1650亿美元协议在美生产AI芯片的做法 [5] - 英特尔代工服务已获得合同,将在美国基于18A制程节点制造微软的下一代定制“Maia 2”AI处理器 [5] 英特尔产品部门的战略定位 - 谷歌TPU的势头对英特尔产品部门聚焦推理和成本优化型计算的AI路线图有利 [6] - 英特尔即将推出的“Crescent Island”AI处理器针对推理工作负载优化,计划明年开始发货 [7] - 英特尔产品部门成立“Central Engineering Group”以构建新ASIC和设计服务业务,应对由博通和迈威尔科技主导的定制ASIC市场机遇 [7] - 英特尔与英伟达的合作验证其定制能力,将部署定制至强CPU用于英伟达下一代系统,并开发集成到英伟达RTX GPU中的x86 SoC [7] 定制ASIC行业趋势与英特尔前景 - 日益严峻的功耗限制提升行业对“每美元每瓦特效能”的需求,有利于谷歌TPU等定制ASIC的采用 [9] - 结合英伟达AI处理器的供应限制,环境越来越有利于定制AI加速器的采用,这强化了英特尔产品部门面临的顺风 [9] - 市场对定制ASIC的强劲需求及谷歌TPU的突破,增加了英特尔产品部门和代工部门获得外部合作机会的可能性,可能实质性地提升公司增长前景 [10] - 英特尔在近期与英伟达合作后,处于更有利地位与超大规模供应商合作,其执行转型战略的能力已成为可信的估值重估催化剂 [10]
谷歌最强芯片,终于开卖
半导体芯闻· 2025-11-25 10:58
谷歌TPU业务战略转变 - 谷歌母公司Alphabet正与Meta Platforms等公司洽谈,计划向客户直接出售其Tensor AI芯片(TPU),供客户在其自有数据中心使用,此举将加剧与英伟达的竞争[1] - Meta Platforms考虑从2027年开始在其数据中心购买价值数十亿美元的谷歌TPU,并最早从2026年起从谷歌云租用TPU容量,而Meta此前主要依赖英伟达GPU满足AI需求[1] - 此合作对谷歌及其AI芯片设计合作伙伴博通而言是一个巨大的新市场,但可能对英伟达和AMD的销售及定价权构成重大竞争威胁[1] 市场反应与股价表现 - 受相关报道影响,谷歌股价在盘后交易中上涨超过2%,博通股价上涨近2%[1] - 在常规交易时段,博通股价飙升11.1%至377.96美元,谷歌股价上涨6.3%至318.58美元,创下新高[2] - 作为对比,英伟达股价在盘后交易中下跌近2%,AMD股价在尾盘下跌近2%[2] 谷歌TPU v7(Ironwood)技术规格与性能 - 谷歌TPU v7(代号Ironwood)加速器每个芯片拥有4.6 petaFLOPS的密集FP8性能,略高于英伟达B200的4.5 petaFLOPS,略低于其更强大的GB200/GB300加速器的5 petaFLOPS[3] - 该计算平台配备192 GB的HBM3e内存,提供7.4 TB/s的带宽,与英伟达B200(192GB HBM,8TB/s内存带宽)处于同一水平[4] - Ironwood是谷歌功能最强大的TPU,其性能是TPU v5p的10倍,是TPU v6e "Trillium"加速器的4倍,性能大致与英伟达和AMD的最新芯片相当[4] 谷歌TPU的扩展架构与可靠性 - 谷歌TPU以POD形式提供,单个Ironwood模块可通过专有互连网络连接多达9216个独立芯片,总双向带宽达9.6 Tbps[5] - 这种庞大互连架构使9216颗芯片能共享1.77PB的高带宽内存,谷歌指出其Ironwood Pods的FP8 ExaFLOPS性能是其最接近竞争对手的118倍[6] - 系统采用光路交换技术实现动态可重构架构,液冷系统自2020年以来整体正常运行时间保持约99.999%的可用性,相当于每年停机时间不到6分钟[6] 谷歌与英伟达的架构差异 - 谷歌采用3D环面拓扑结构连接芯片,无需使用高性能数据包交换机,旨在减少延迟和功耗,但可能随着规模扩大增加芯片间通信跳数[7] - 英伟达为其机架级平台选择大型、相对扁平的交换机拓扑结构,确保GPU间通信距离最多不超过两跳[7] - 哪种方案更优取决于工作负载类型,某些负载受益于大型多跳拓扑,另一些则在较小规模交换式计算域上表现更佳[8] 谷歌自研CPU Axion - 谷歌正在部署其首款基于Armv9架构的通用处理器Axion,旨在比现代x86 CPU提升高达50%的性能和高达60%的能效,比云端最快通用Arm实例性能高出30%[9] - 该战略体现未来计算基础设施需要专用AI加速器与高效通用处理器协同,TPU负责AI模型运行,Axion级处理器负责数据摄取、预处理、应用逻辑等任务[10] - 早期客户反馈显示可衡量经济效益,Vimeo报告核心转码工作负载性能提升30%,ZoomInfo表示数据处理管道性价比提升60%[10] 谷歌软件生态系统与效率提升 - 谷歌将Ironwood和Axion集成到其"AI超级计算机"系统中,IDC 2025年10月研究显示,该系统的客户平均实现353%的三年投资回报率,降低28%的IT成本,提高55%的IT团队效率[11] - 软件增强功能包括谷歌Kubernetes Engine为TPU集群提供高级维护和拓扑感知功能,开源MaxText框架支持高级训练技术[11] - 谷歌推理网关通过前缀缓存感知路由等技术,能将首次令牌延迟降低96%,并将服务成本降低高达30%[11] 行业影响与客户采纳 - 谷歌在运行大规模计算架构方面经验丰富,其TPU v4 POD最大支持4096芯片,v5p提升至8960芯片,Ironwood进一步将POD数量提升至9216芯片[13] - 大型模型构建者如Anthropic已宣布计划利用多达一百万个TPU来训练和运行其下一代Claude模型[13] - 行业观点认为,谷歌、亚马逊等公司的芯片在硬件能力和网络可扩展性上正迅速赶上英伟达,软件往往成为决定性因素[14]
谷歌对外销售芯片:博通大涨,英伟达AMD应声下跌
半导体行业观察· 2025-11-25 01:20
文章核心观点 - 谷歌母公司Alphabet正与Meta Platforms等公司洽谈,计划直接销售其自研的Tensor AI芯片(TPU),此举将加剧与英伟达的竞争 [2] - 谷歌最新一代TPU v7(代号Ironwood)在性能上已与英伟达Blackwell GPU相当,并通过独特的可扩展架构实现超大规模计算集群 [4][5][7] - 谷歌同时推出其首款基于Arm架构的通用处理器Axion,与TPU协同构成完整的AI超级计算机解决方案 [11][12][13] 商业动态与市场影响 - Meta Platforms正考虑从2027年开始在其数据中心购买价值数十亿美元的谷歌TPU,并可能最早从2026年就开始从谷歌云租用TPU容量 [2] - 受此消息影响,谷歌股价在盘后交易中上涨超过2%,博通股价上涨近2%,而英伟达和AMD股价则下跌近2% [2][3] - 博通参与了谷歌Tensor AI芯片的设计,这可能为其开辟一个巨大的新市场 [2] TPU v7 (Ironwood) 技术规格与性能 - 每个Ironwood TPU拥有4.6 petaFLOPS的密集FP8性能,略高于英伟达B200的4.5 petaFLOPS [5] - 芯片配备192 GB的HBM3e内存,提供7.4 TB/s的带宽,与英伟达B200(192GB HBM,8TB/s带宽)处于同一水平 [6] - 性能是TPU v5p的10倍,是TPU v6e "Trillium"加速器的4倍 [6] - 单个Ironwood "模块"可通过专有互连网络连接多达9216个独立芯片,共享1.77PB高带宽内存 [7] 架构与可扩展性优势 - 谷歌采用3D环面拓扑结构进行芯片互连,无需使用昂贵且耗电的高性能数据包交换机 [9] - 系统采用光路交换技术,构成动态可重构架构,能在组件故障时于几毫秒内自动绕过中断点 [8][10] - 液冷系统的整体正常运行时间自2020年以来保持约99.999%的可用性,相当于每年停机时间不到6分钟 [8] - 谷歌报告称其Ironwood Pods的FP8 ExaFLOPS性能是其最接近的竞争对手的118倍 [8] 软件生态系统与客户案例 - 谷歌AI超级计算机客户平均实现了353%的三年投资回报率、降低了28%的IT成本,并提高了55%的IT团队效率 [13] - 推理网关通过前缀缓存感知路由等技术,能将首次令牌延迟降低96%,并将服务成本降低高达30% [13] - 早期客户Vimeo报告其核心转码工作负载性能提升30%,ZoomInfo表示其数据处理管道的性价比提升60% [12] - AI公司Anthropic计划利用多达一百万个TPU来训练和运行其下一代Claude模型 [15] 战略布局与行业影响 - 谷歌推出首款基于Armv9架构的通用处理器Axion,旨在提供比现代x86 CPU提升达50%的性能和高达60%的能效 [11] - 该战略体现了未来的计算基础设施既需要专用AI加速器(TPU),也需要高效的通用处理器(Axion)的信念 [12] - 谷歌、亚马逊等公司的定制芯片在硬件能力和网络可扩展性方面正迅速赶上英伟达,软件成为决定性因素 [16]
【太平洋科技-每日观点&资讯】(2025-11-10)
远峰电子· 2025-11-09 11:05
行情速递 - 主板市场领涨个股包括康强电子上涨10.02%、意华股份上涨10.00%、闻泰科技上涨9.70%、德明利上涨8.04%、普天科技上涨6.73% [1] - 创业板市场领涨个股包括乾照光电上涨20.03%、天孚通信上涨12.67%、海峡创新上涨10.87% [1] - 科创板市场领涨个股包括长光华芯上涨9.01%、中科飞测上涨8.43%、普冉股份上涨5.46% [1] - 活跃子行业中SW LED指数上涨0.98%、SW半导体设备指数上涨0.75% [1] 国内产业动态 - 中科曙光发布全球首个单机柜级640卡超节点scaleX640 采用高密架构设计实现单机柜640卡超高速总线互连 可构建大规模高带宽低时延通信域 [1] - 芯视佳江西K3工厂总投资10亿元 一期建设年产1200万套柔性OLED模组项目并布局2条全自动生产线 二期建设年产250万套硅基OLED显示屏模组项目同样配备2条全自动生产线 [1] - 一加手机在中国区W44周销量市占率达到3.3%创历史新高 通过与OPPO共享研发及供应链资源完善中高端产品矩阵 [1] - 苏大维格拟以5.1亿元收购常州维普51%股权 旨在结合双方在激光直写光刻和掩模缺陷检测领域优势 推进激光直写光刻机在半导体光掩模制造和先进封装领域的量产应用 [1] 公司公告 - 工业富联拟于2025年12月1日至2026年2月27日期间通过集中竞价交易方式减持不超过2,698,225股 占总股本0.99% [3] - 铭普光磁取得一项光器件制作方法发明专利 通过优化内部光学结构设计与组件座结构拆分方式实现便于机加工低成本简化工艺和高可靠性目标 [3] - 光格科技股东减持期间为2025年9月5日至2025年11月6日 通过集中竞价减持533,200股 大宗交易减持800,000股 减持总金额为38,774,518.04元 [3] - 领益智造调整收购江苏科达66.46%股权方案 由原发行可转债及支付现金调整为纯现金收购 调整后不构成重大资产重组 [3] 海外新闻 - 荷兰政府欢迎中方为安世中国工厂恢复供货提供便利的表态 相信中国供应至欧洲和世界其它地区的芯片将在未来几天送达客户手中 [3] - 谷歌部署新型Axion CPU和第七代Ironwood TPU Ironwood TPU可提供4,614 TFLOPS的FP8性能并配备192 GB HBM3E内存 Ironwood Pod最多可扩展至9,216个AI加速器 总性能达42.5 ExaFLOPS远超英伟达GB300 NVL72系统的0.36 ExaFLOPS [3] - UDC收购默克集团部分OLED发光材料相关专利资产 收购专利组合平均剩余有效期约10年 在全球拥有超过300项已授权和待审批专利涉及110多个独特专利群组 [3] - 2025年第三季度全球半导体销售额达2084亿美元 较第二季度增长15.8% 2025年9月全球半导体销售额为695亿美元 较2024年9月增长25.1% 较2025年8月增长7.0% [3]
英伟达最强对手,来了
半导体行业观察· 2025-11-07 01:00
TPU v7 (Ironwood)性能突破 - 谷歌最新一代Ironwood TPU加速器性能实现重大飞跃,性能是TPU v5p的10倍,是TPU v6e"Trillium"的4倍 [4] - 单个Ironwood TPU提供4.6 petaFLOPS的密集FP8性能,略高于英伟达B200的4.5 petaFLOPS,略低于GB200/GB300的5 petaFLOPS [3] - 计算平台配备192GB HBM3e内存,提供7.4 TB/s带宽,与英伟达B200(192GB HBM,8TB/s内存带宽)处于同一水平 [3] - 每个TPU具有四个ICI链路,提供9.6 Tbps总双向带宽,而英伟达B200/B300为14.4 Tbps (1.8 TB/s) [3] 大规模扩展架构优势 - 谷歌TPU以Pod形式提供,单个Ironwood模块可通过专有互连网络连接多达9216个独立芯片 [7] - 9216颗芯片共享1.77PB高带宽内存,互连带宽高达9.6 Tbps,相当于在不到两秒内下载整个美国国会图书馆 [7] - 采用光路交换技术构成动态可重构架构,组件故障时可在几毫秒内自动绕过中断点,保持工作负载运行 [7] - 液冷系统整体正常运行时间保持约99.999%可用性水平,相当于每年停机时间不到6分钟 [8] - 采用3D环面拓扑结构,每个芯片以三维网格形式连接其他芯片,无需使用高性能数据包交换机 [8] Axion CPU战略布局 - 谷歌部署首款基于Armv9架构的通用处理器Axion,基于Arm Neoverse v2平台构建 [11] - Axion旨在比现代x86 CPU提升高达50%性能、高达60%能效,比云端最快通用Arm实例性能高30% [11] - 该CPU每个核心配备2MB私有L2缓存,80MB L3缓存,支持DDR5-5600 MT/s内存和统一内存访问 [11] - 早期客户Vimeo报告核心转码工作负载性能提升30%,ZoomInfo在Java服务上性价比提升60% [12] 软件生态系统与生产力 - AI超级计算机客户平均实现353%三年投资回报率,降低28% IT成本,提高55% IT团队效率 [14] - 谷歌Kubernetes Engine为TPU集群提供高级维护和拓扑感知功能,实现智能调度和高弹性部署 [14] - 开源MaxText框架支持监督式微调和生成式强化策略优化等高级训练技术 [14] - 推理网关通过前缀缓存感知路由等技术,将首次令牌延迟降低96%,服务成本降低高达30% [14] - 推理网关监控关键指标并智能路由请求,对共享上下文的请求路由到同一服务器以减少冗余计算 [15] 行业竞争格局与客户采用 - Ironwood Pods的FP8 ExaFLOPS性能被谷歌称为是其最接近竞争对手的118倍 [7] - 谷歌TPU v4支持最大4096芯片POD,TPU v5p提升至8960芯片,Ironwood进一步达到9216芯片 [16] - Anthropic计划利用多达一百万个TPU来训练和运行其下一代Claude模型 [16] - 亚马逊Trainium 2加速器在其计算结构中也采用2D和3D环面网格拓扑结构 [16]
Arm服务器芯片,太猛了
半导体行业观察· 2025-09-13 02:48
文章核心观点 - Arm架构在服务器处理器市场的份额正快速提升,2025年第二季度已达到25%,主要驱动力是英伟达基于Grace-Blackwell架构的机架级计算平台的广泛采用 [1][2] - 尽管增长迅速,但当前25%的市场份额与Arm基础设施负责人设定的2025年底达到50%的目标仍有显著差距 [3] - 除服务器市场外,Arm公司对个人电脑市场也抱有巨大野心,预测到2029年全球销售的Windows PC中将有一半由Arm芯片驱动 [4] Arm在服务器市场的进展 - 2025年第二季度,Arm CPU在服务器市场的份额达到25%,相比一年前的15%实现了显著增长 [1] - 市场份额增长的主要驱动力来自英伟达GB200和GB300 NVL72等基于Grace-Blackwell架构的机架级计算平台的广泛采用 [1] - 每台功耗达120千瓦的NVL72系统配备72枚Blackwell GPU与36枚Grace CPU,这些72核芯片基于Arm Neoverse V2架构 [2] - 与一年前Arm份额主要依赖AWS Graviton等定制云芯片不同,目前英伟达Grace平台带来的营收已可与云GPU相提并论 [2] 云服务厂商的Arm战略 - AWS自2018年便开始投入定制Arm芯片,而微软和谷歌在最近几年才真正重视这一路线,分别推出了Cobalt和Axion CPU [3] - 这些云厂商的定制Arm芯片既用于内部任务,也服务于面向客户的云工作负载 [3] 未来发展与生态系统 - 英伟达正在开发代号为Vera的新一代Arm CPU,将采用自研核心 [4] - 高通与富士通也在推进新一代服务器芯片研发,并已通过英伟达NVLink Fusion技术的兼容性认证 [4] - 未来可能出现基于不止英伟达自家CPU的"超级芯片"架构 [4] AI繁荣对市场的影响 - 受AI投资扩张推动,2025年第二季度服务器与存储组件市场同比增长高达44% [5] - SmartNIC与数据处理单元销售额几乎翻倍,主要受益于AI集群向以太网架构迁移的趋势 [5] - 定制AI ASIC的出货量已与GPU相当,但GPU仍占据加速器市场收入的主导地位 [5]
If You Only Invest in the Vanguard S&P 500 ETF, You're Missing Out on This Stellar Artificial Intelligence (AI) Semiconductor Stock
The Motley Fool· 2025-03-28 08:18
文章核心观点 - 标普500指数虽包含众多AI股票,但并非所有优质AI股票都在其中 ,如Marvell Technology ,该公司目前股价有吸引力 ,可作为指数基金的补充加入投资组合 [1][2][4] 标普500指数及相关投资 - 先锋标普500ETF是投资广泛股票的简单有效方式 ,该指数基金紧密跟踪标普500 ,费用比率极低 [1] - 过去几年标普500指数回报很大程度由AI股票驱动 ,2023和2024年的出色表现得益于少数AI领军企业市值飙升 [2] - 标普500指数被广泛视为更广泛股市的基准 ,纳入指数有特定要求 ,包括总部和多数资产在美国 ,且最近季度和过去12个月按GAAP原则盈利 [3] Marvell Technology公司情况 业务与市场份额 - 公司拥有广泛芯片设计组合 ,包括网络交换机 、光通信和处理器 ,在AI发展中发挥重要作用 [5] - 网络设备对AI加速器集群数据传输至关重要 ,可减少冗余和停机时间 ,确保云客户充分利用数据中心昂贵处理芯片 [6] - 在网络芯片领域 ,公司正从市场领导者博通手中夺取份额 ,凭借专业化和定制解决方案能力赢得超大规模企业大合同 ,如去年为Meta Platforms推出定制网络接口控制器芯片 [7] - 公司定制AI加速器获亚马逊等公司大力采用 ,推理芯片Inferentia今年将采用其设计 ,还与Alphabet和微软有合作项目 [8] - 公司预计2023 - 2028年数据中心芯片总潜在市场年均增长29% ,同期市场份额几乎翻倍 ,2025财年AI芯片收入超15亿美元 ,预计明年远超25亿美元目标 [9] 财务表现 - 上季度数据中心收入同比增长78% 、环比增长24% ,但其他业务板块合计同比萎缩32% ,不过第四季度其他板块已企稳 ,多数实现环比增长 [10] 未纳入标普500指数原因 - 公司是美国公司 ,但自2018年起因收购小公司产生大量无形资产摊销费用 ,拖累GAAP收益 ,导致未持续按GAAP原则盈利 [12] - 过去四年该非现金费用每年使公司GAAP收益减少约10亿美元 ,若剔除该费用公司将盈利并可能纳入标普500指数 ,上季度公司GAAP利润2亿美元 ,管理层预计今年随着数据中心业务扩大将持续GAAP盈利 [13] 投资价值 - 非GAAP(调整后)收益更能反映公司财务健康状况 ,目前股价仅为分析师对2026财年调整后每股收益共识预期的25倍 ,分析师预计未来两年调整后收益增长135% ,若持续GAAP盈利可能纳入标普500指数 ,推动股价上涨 [14] - 先锋标普500ETF等指数投资者可考虑在投资组合中少量配置该股票 [15]