Workflow
UALink
icon
搜索文档
Scaleup助推交换芯片增长
民生证券· 2025-11-03 08:58
行业投资评级 - 推荐 维持评级 [6] 核心观点 - AI数据中心架构正从Scale-out向Scale-up转型,以突破单节点算力瓶颈,交换芯片作为基础部件将深度受益于Scale-up互连规模的持续增长 [1][3][54] - 头部厂商通过NVLink、UALink、SUE等方案推动Scale-up技术升级,带动PCIe Switch芯片和以太网交换芯片需求提升 [2][20][54] - 中国是全球最大的PCIe交换芯片市场,但国产化率极低,在AI服务器需求旺盛和国产替代趋势下,国内企业面临广阔发展空间 [5][45][49][50] Scale-up是超节点方案的升级方向 - Scale-out架构面临带宽延迟瓶颈、能效低和系统复杂度高的问题,行业转向Scale-up架构,通过高速互连技术集成更多计算单元 [1][15] - Scale-up通过PCIe、NVLink等技术在单节点内提升资源密度,构建高带宽域,典型应用包括英伟达NVL72和华为CloudMatrix384等超节点方案 [1][15][16] 头部厂商方案推动Scale-up规模增长 - 英伟达通过NVLink实现节点内GPU互联,NVLink5带宽达900 GB/s,NVSwitch聚合带宽达3,600 GB/s [16][20] - AMD、博通等推出UALink和SUE方案竞争,UALink支持1,024节点互连,带宽和时延优于NVLink [2][20] - 节点内互连主要依赖PCIe Switch,节点间通过以太网或InfiniBand,Scale-up增长直接驱动交换芯片需求 [24][25][26] 交换芯片市场前景 - 全球AI服务器出货量从2022年100万台增至2024年200万台,预计2030年达650万台,2025-2030年CAGR为21.2% [30][33] - 全球PCIe互连芯片市场规模从2022年4.69亿美元增至2024年22.89亿美元,预计2030年达77.61亿美元,2025-2030年CAGR为20.1% [30][33] - AI和云基础设施连接芯片市场预计从2023年172亿美元增至2027年274亿美元 [4][37] 国产替代空间 - 2024年中国PCIe交换芯片市场规模约38亿元,预计2029年达170亿元,中国占全球市场48% [5][45][49] - 2024年全球以太网交换芯片市场规模约347亿元,中国占192亿元 [5][50] - 高端PCIe交换芯片由博通、微芯科技等垄断,CR3达84%;中国万兆以上以太网交换芯片市场博通占73.1%,盛科通信作为国内龙头仅占2.3% [49][50][53] 投资建议 - 关注PCIe Switch芯片产业链:具备设计能力的中兴通讯、澜起科技、数渡科技,以及提供Serdes IP的芯原股份 [54] - 关注以太网交换芯片产业链:中兴通信、盛科通信等企业 [54]
Astera Labs (ALAB) Downgraded: Barclays Says AI Connectivity Shifts Away from Its UALink
Yahoo Finance· 2025-10-28 12:06
股票评级调整 - 巴克莱分析师Tom O'Malley于10月20日将Astera Labs股票评级从增持下调至持股观望,目标价维持在155美元 [1] - 此次评级下调涉及多家公司,包括Lumentum和Marvell Technology,这些公司在AI相关名称中显得“吸引力较低” [1] 产品与市场动态 - 对Astera Labs的评级下调主要源于其UALink产品除亚马逊Trainium 3外缺乏其他客户的采用 [1] - 公司未看到Astera的UALink产品被采用或获得发展势头的迹象,且行业正转向以太网技术 [2] - Astera Labs主要从事面向云和AI基础设施的基于半导体的连接解决方案的设计、制造和销售 [2]
巴克莱在财报季前降级Lumentum(LITE.US)等三只半导体股
新浪财经· 2025-10-21 02:21
巴克莱银行评级调整核心观点 - 巴克莱银行在财报季前夕将Lumentum、Astera Labs和迈威尔科技的评级从增持下调至持股观望 因这些公司在AI赛道吸引力下降 同时更看好科磊、Coherent和MACOM Technology Solutions的投资价值 [1] 评级下调公司分析 - Lumentum评级下调前三个月股价累计上涨60% 远超同期标普500指数5%的涨幅 风险回报状况相较于同行不再具备明显优势 尽管存在EML产能扩张和光收发器客户带来的潜在上行空间 但在估值门槛抬高后增长催化剂带来的上行空间相对有限 [1] - Astera Labs评级下调源于其UALink产品市场渗透不足 除亚马逊Trainium 3项目外 该产品未在更广泛的以太网、ESUN及SUE-T产品体系中建立显著优势 同时行业正向Ethernet、ESUN及SUE-T方案迁移 UALink面临被边缘化风险 [1] - 迈威尔科技评级调低原因在于其专用集成电路业务表现弱于最初预期 同时数据中心业务面临额外的市场风险 [1] 评级上调公司分析 - 巴克莱将半导体设备领军者科磊的股票评级上调至增持 对过程控制强度提升的长期前景及科磊在行业领先领域的业务布局持乐观态度 随着中国以外市场收入增长门槛相对较低 预计公司未来将迎来强劲增长周期 [2] 行业趋势与背景 - 此次评级调整并非全面看空半导体板块 巴克莱同步表达了对特定半导体设备公司的看好 [2]
巴克莱在财报季前降级Lumentum(LITE.US)等三只半导体股,转而“增持”科磊(KLAC.US)
智通财经网· 2025-10-21 02:16
评级下调公司及原因 - Lumentum评级从增持下调至持股观望 因风险回报状况相较同行不再具备明显优势 尽管存在EML产能扩张和光收发器客户的潜在上行空间 但在估值门槛抬高后上行空间有限 [1] - Lumentum股价在评级调整前三个月累计上涨60% 远超同期标普500指数5%的涨幅 [1] - Astera Labs评级从增持下调至持股观望 因其UALink产品市场渗透不足 除亚马逊Trainium 3项目外未在更广泛以太网、ESUN及SUE-T产品体系中建立优势 且行业正向Ethernet、ESUN及SUE-T方案迁移面临被边缘化风险 [1] - 迈威尔科技评级从增持下调至持股观望 原因在于其专用集成电路业务表现弱于最初预期 同时数据中心业务面临额外市场风险 [1] 评级上调公司及原因 - 科磊评级被上调至增持 因对过程控制强度提升的长期前景及公司在行业领先领域的业务布局持乐观态度 [2] - 预计科磊将迎来强劲增长周期 因中国以外市场收入增长门槛相对较低 [2] 机构整体观点 - 巴克莱银行并非全面看空半导体板块 在下调部分公司评级的同时上调了科磊的评级 [1][2] - 机构更看好科磊、Coherent和MACOM Technology Solutions的投资价值 [1]
回归技术--Scale Up割裂的生态
傅里叶的猫· 2025-10-18 16:01
文章核心观点 - 文章核心观点是分析AI服务器Scale Up高速互联技术的市场格局、主流技术方案及其发展前景,重点探讨了英伟达NVLink、博通SUE和由AMD、Marvell等公司推动的UALink三大技术路线的竞争态势 [1][3][5] - 随着AI算力需求增长,Scale Up网络市场预计将从2024年的40亿美元以34%的年复合增长率增长至2029年的170亿美元,为非英伟达阵营的互联技术提供了巨大市场机会 [5][7] - Scale Up技术生态目前呈现割裂状态,未来竞争结果将取决于xPU市场份额划分、新网络标准演进以及客户的数据中心架构选择 [10][22] Scale Up和Scale Out概念 - Scale Up网络指同一台服务器或同一机架内GPU之间的高速通信网络,通过加速器互联使其协同工作,相当于一台大型超级计算机 [3] - 在Hopper时代以8卡机为主,服务器内部GPU可通信,服务器间需接交换机;Blackwell时代的GB200 NVL72则将一个机架内的72个GPU视为单一虚拟GPU,消除了服务器间通信瓶颈 [5] 主流Scale Up方案对比 - 英伟达采用专有NVLink协议实现GPU集群互联,在GB200/300的NVL72配置中,NVLink扩展至Blackwell GPU与Grace CPU的连接,预计未来将继续仅通过NVLink实现Scale Up [11] - AMD借助专有Infinity Fabric技术实现MI300 GPU的Scale Up,单个服务器最多连接8个GPU;即将推出的MI400将采用72-GPU机架配置,通过基于以太网的UALink实现Scale Up [12] - 谷歌通过芯片间互联技术实现机架内TPU Scale Up,借助光电路交换技术实现跨机架扩展;基于TPUv7架构的完整扩展pod可支持多达9216个TPU [13] - 亚马逊采用专有NeuronLink互联技术实现Scale Up通信,可在四个Trainium2实例间连接多达64个芯片;目前正与阿斯特拉实验室合作研发专用Scale Up交换机,预计2026年推出 [14] - 博通的SUE采用AI优化以太网,具备超低延迟和高性能,使用博通Tomahawk交换机,支持横向与纵向扩展的第六代产品已于6月出货 [17] - UALink是专为AI设计的内存语义互联技术,目前处于发展初期,由AMD、ALAB、MRVL及多家超大规模企业组成的联盟支持,基于AMD的Infinity Fabric,物理层依托以太网 [17] 国内超节点发展现状 - 目前国内已公布超节点方案的只有华为和阿里,华为有UB Mesh,阿里有ALink;其他国产GPU厂由于系统复杂性高且需要自有互联协议,面临较大挑战 [9] - 阿里欢迎其他厂家加入ALink生态,但其他厂家可能因竞争关系不愿兼容,同时受国际形势影响可能也不会选择国外互联总线,导致国内生态发展存在不确定性 [9] 互联介质选择:光与铜 - 当前Scale Up网络以铜缆为主,因其在短距离内具有纳秒级低延迟和成本优势,能避免光器件的额外成本和功耗 [20] - 单机架加速器部署规模上限约为72个,受架构、功耗与散热、物理密度和可靠性四大因素限制;若规模超过100个或需转向光连接 [20] - 预计铜缆将在Scale Up网络中长期使用,但当Scale Up突破单机架实现数百个GPU集群时,可能于2028年及以后引入光器件 [20][21] 市场竞争格局与关键因素 - Marvell在UALink生态中的主要贡献是准备做UALink switch,这是整个生态中最关键的一环 [22] - 当前市场处于早期阶段,架构、技术标准和客户偏好仍在变化中,最终胜出的Scale Up技术尚未确定,但市场规模足以支撑多家供应商共存 [22] - 长期来看,非英伟达阵营预计将从专有Scale Up网络逐步转向UAL、SUE等开源解决方案,这些技术有望在2027-2028年随着技术成熟及新ASIC产品放量而得到更广泛应用 [22]
Astera Labs Showcases Rack-Scale AI Ecosystem Momentum at OCP Global Summit
Globenewswire· 2025-10-13 13:00
行业趋势:AI基础设施向机架级架构演进 - AI基础设施格局正从服务器级架构快速演变为作为统一计算平台运行的机架级系统[2] - 行业向AI Infrastructure 2.0发展,整个机架作为统一计算平台运行,而非独立服务器的集合[1] - 超大规模企业正投资数十亿(billions)美元建设下一代基础设施,开放标准对提供集成多样化加速器、互连、机架设计和管理工具所需的灵活性至关重要[2] 公司战略:通过开放标准和生态合作推动创新 - 公司实现AI Infrastructure 2.0的方法是协作、标准化和加速,通过生态合作更快地推动创新[2] - 公司在2025年OCP全球峰会上通过现场演示和技术会议展示对PCIe、UALink、以太网、CXL和OpenBMC标准解决方案的广泛支持[1] - 公司提供基于开放标准的智能连接平台,通过COSMOS软件套件整合CXL、以太网、PCIe和UALink技术,将多样化组件统一为连贯的系统[13] 生态合作与技术支持领域 - **GPU和CPU互连**:与AMD合作确保客户能够在开放机架架构中大规模部署AMD Instinct GPU,提供性能、能效和灵活性[3] - **高速线缆与连接器**:与Amphenol合作提供从板级到机架级部署的可靠高速线缆解决方案,确保供应链多样性[3];与Molex合作优化支持PCIe 6和UALink 1.0(200G)的线缆和连接器解决方案[9] - **制造与集成**:与Ingrasys合作利用其全球AI服务器制造和机架级集成能力,加速下一代AI计算解决方案的上市时间[7];与Quanta Computer合作确保客户获得经过验证、满足现代AI工作负载要求的生产就绪解决方案[10] - **管理与监控**:与ASPEED合作提供基于标准的管理和监控堆栈,超大规模客户可将其无缝集成到监控系统中,并跨集群编排层扩展[4];与Insyde Software合作将OpenBMC管理框架扩展到下一代连接结构[8] - **信号完整性与模拟设计**:与Cadence Design Systems合作为工程师提供模拟仿真和验证工具,确保在PCIe 6速度下跨机架的高速连接信号完整性[6] - **光学连接与背板解决方案**:与Eoptolink合作将其连接智能与先进光学收发器集成,为现代AI数据中心架构所需的远距离提供高带宽解决方案[7];与TE Connectivity合作将Aries重定时器技术直接嵌入机架基础设施,提供集成背板解决方案[11]
高盛Communacopia与技术大会之硬件:AI推动企业服务器与网络市场分化,高端厂商盈利可期
智通财经· 2025-09-12 09:52
硬件领域AI服务器需求 - 戴尔科技正从超微电脑手中抢占高端市场份额,慧与科技在成本控制下实现增长,但传统企业服务器市场因企业优先投资AI基础设施而短期承压 [1] - 高盛预计至2027年,成熟的新云服务提供商将转向ODM定制或半定制服务器设计,戴尔科技、慧与科技等企业级服务器厂商的x86单位销量预计下滑,但可通过高均价与利润率维持收入稳定 [1] - 后端规模扩展网络市场总规模在2029年有望达到230亿美元,其中以太网规模扩展增量市场约为80亿至100亿美元 [1] AI网络技术竞争格局 - AI网络在超大规模、二级云/新云、企业及主权客户垂直领域均保持竞争活力,超大规模企业因AI经济转型需求强劲,品牌供应商持续主导 [2] - 二级云领域Spectrum-X捆绑网络/计算解决方案最具适配性,企业市场则由戴尔科技、慧与科技、思科等OEM凭借广泛客户基础与分销能力占据优势 [2] - 主权领域目前贡献有限,但650Group预测其订单量将从2026年起显著提升 [2] 通信技术市场趋势 - 思科、慧与科技/Juniper等厂商积极参与AI网络市场,规模扩展领域未出现品牌供应商向白盒交换机转变的趋势 [2] - 在规模扩展后端网络市场,NVLink目前占主导地位,但以太网未来将成为其有力竞争替代方案,UALink和PCle则维持小众市场地位 [1]
Astera Labs (ALAB) 2025 Conference Transcript
2025-09-04 13:52
**Astera Labs 公司及行业关键要点总结** **公司及行业概览** * 公司为Astera Labs 专注于为云和AI基础设施提供连接解决方案[2][3] * 公司是UCIe Link联盟的推广成员 致力于开放生态系统[42] * 行业正处于AI周期的早期阶段 预计未来仍需10倍至100倍的性能提升[11][12] **核心产品与市场定位** * 核心产品包括三大类 * Ares Retimer:用于PCIe 连接 在PCIe Gen5市场占据领导地位 广泛部署于NVIDIA GPU、AMD GPU及众多ASIC中[4][57] * Taurus:用于以太网连接 功能类似于Ares对PCIe的作用[5] * LEO:CXL内存扩展设备 用于为计算系统增加内存[5] * 新推出的Scorpio产品线包括两个系列 * Scorpio P系列:符合标准的PCIe交换机 主要用于Scale-out应用 已开始量产并产生收入[26][29] * Scorpio X系列:专为使用PCIe或其定制协议进行Scale-up的客户设计 已有超过10个客户处于不同合作阶段 包括超大规模客户 预计2026年将带来更大收入[23][30][31] * 产品路线图包括支持UCIe Link的新产品 预计2026年下半年样品 2027年产生收入[45] **财务表现与增长驱动** * 营收呈现高速增长 * 2023年营收1.16亿美元[6] * 2024年营收3.96亿美元[6] * 2025年至今已实现约3.5亿美元营收[6] * Scorpio产品线在2024年第二季度开始上量 预计在第三、第四季度及2026年持续增长 近期需求主要由P系列驱动[29] * Ares业务预计今年增长超过60% 且随着向PCIe Gen6过渡 ASP预计提升约20% 单位需求也将增长[61][59] * 单加速器价值含量持续提升 * 几年前:每加速器约50-100美元内容价值[37] * 2024年:每加速器略超100美元内容价值[37] * Scorpio P系列平台:每加速器数百美元内容机会[38] * Scorpio X系列:目标达到每加速器1000美元以上[38] **市场趋势与行业动态** * AI模型变得庞大 需要多个GPU协同工作 Scale-up(纵向扩展)网络成为新的机遇[7][8] * 行业存在三种主要的Scale-up生态系统 * NVIDIA NVLink:最大规模的已部署网络 专为AI系统构建[47][48] * 以太网生态系统:由博通推动 尝试将Scale-up概念添加到以太网上[49] * UCIe Link生态系统:结合PCIe协议优势和以太网高速SerDes 专为AI工作负载构建 优势在于其开放性和技术优越性[41][42][50][51] * 超大规模客户渴望回归开放生态系统 以创新和区分其解决方案 UCIe Link提供了这种能力[54] **竞争优势与战略** * 核心竞争力在于其Cosmos软件系统 该软件优先的架构能快速识别和修复问题 提供诊断、定制和优化能力[63][64][65] * 在向PCIe Gen6过渡中拥有先发优势 其Gen6产品已开始量产 而竞争对手尚未提供可工作的样品[67] * 公司愿景是提供全机架级别的连接解决方案(AI Infrastructure 2.0) 涵盖半导体、硬件和软件 而不仅仅是一家Retimer公司[84] **客户与合作伙伴** * 客户群涵盖所有知名的超大规模企业 包括美国及美国以外的全球客户[23] * 与领先的GPU平台提供商紧密合作 共同开发生态系统[68] * Scorpio X系列的客户参与度极高 许多客户已有向UCIe Link迁移的计划[43] **风险与挑战** * AI行业发展可能并非单调上升 会经历起伏[13] * 竞争对手是大型半导体公司(如博通、Marvell) 拥有优秀的工程师 最终会解决问题[69] * 最终哪个Scale-up生态系统能胜出尚不确定 存在市场分化的可能性[75][76]
挑战Nvlink,华为推出互联技术,即将开源
半导体行业观察· 2025-08-28 01:14
技术发布与核心特性 - 华为在Hot Chips 2025大会上推出UB-Mesh技术 旨在通过单一协议统一AI数据中心内外部节点的所有互连 取代PCIe CXL NVLink和TCP/IP等协议 [1] - 该技术计划下月向所有用户免费开放并开源规范 以降低延迟 控制成本并提高千兆级数据中心可靠性 [1] - UB-Mesh将数据中心转变为连贯的超级节点 支持任何端口间无需协议转换的直接通信 每芯片带宽从100 Gbps提升至10 Tbps(1.25 TB/s) 跳跃延迟从微秒级降至约150 ns [5][7] 技术架构与性能优势 - SuperNode架构可整合多达1,000,000个处理器(CPU/GPU/NPU) 池化内存 SSD NIC和交换机 采用同步加载/存储语义替代异步DMA [7] - 网络拓扑采用混合模型:顶层CLOS结构连接大厅机架 下层多维网格连接机架内数十节点 避免传统设计在数万节点扩展时的高成本 [18] - 支持高速SERDES连接灵活重用 保留以太网向后兼容性 并通过链路级重试机制 光模块备份通道及交叉设计解决光纤传输高错误率问题 [10][14] 成本与可靠性改进 - UB-Mesh成本扩展呈亚线性 传统互连成本随节点数量线性增长 可能超过AI加速器(如Nvidia H100/B200)本身价格 [23] - 系统模型配备热备用机架自动接管故障 平均故障间隔时间提升数个数量级 适用于百万芯片系统 [23] - 8192节点实用系统证明结合CLOS和二维网格单元的可行性 [23] 行业竞争与标准化前景 - 该技术旨在减少华为下一代数据中心对西方标准(PCIe/NVLink/UALink/TCP/IP)的依赖 提供数据中心级解决方案而非仅硬件竞争 [27] - 行业现有方案包括Nvidia(机架内NVLink+数据中心以太网/InfiniBand)和AMD/博通/英特尔(标准化UALink+超级以太网) [27] - 开放协议旨在推动第三方评估与潜在标准化 但实际采用取决于客户对单一供应商方案的接受度及华为自身部署成功案例 [1][27]
全球科技-I 供应链:-OCP 峰会要点;AI 工厂分析;Rubin 时间表-Global Technology -AI Supply Chain Taiwan OCP Takeaways; AI Factory Analysis; Rubin Schedule
2025-08-18 01:00
行业与公司 - **行业**:全球科技行业,特别是AI供应链和半导体领域[1][9] - **公司**: - **NVIDIA**:Rubin芯片按计划推进,预计2026年量产[4] - **Broadcom & AMD**:在OCP研讨会上争论UALink与Ethernet技术优劣[2][10] - **Meta**:计划2026年部署1GW(Prometheus)和未来5GW(Hyperion)AI集群[3] - **TSMC**:2025年CoWoS产能分配中,NVIDIA占主导(63%)[86][100] --- 核心观点与论据 1. **AI工厂经济性** - **成本与利润**:100MW AI工厂在每百万token 0.2美元的价格下,年利润可达8.93亿美元,平均利润率超50%[43][47] - **TCO分析**:100MW AI推理设施的年TCO为3.3-8.07亿美元,硬件投资范围3.67-22.73亿美元[31][45] - **性能对比**:NVIDIA GB200 NVL72在性能和利润上领先,TPU因低成本策略逐步缩小差距[47][49] 2. **技术竞争(UALink vs. Ethernet)** - **Broadcom**:主张Ethernet灵活性(延迟250ns),不限定延迟以促进创新[2][10] - **AMD**:强调UALink标准化延迟(类似PCIe/CXL),确保AI工作负载性能,获云服务商支持[2][10] - **NVIDIA优势**:NVLink 5.0带宽1800GB/s,远超PCIe 5.0(126GB/s)[22] 3. **芯片与供应链动态** - **NVIDIA Rubin**:2025年10月首次流片,2026年Q2量产[4] - **CoWoS产能**:2025年TSMC预计生产510万颗芯片,GB200 NVL72服务器机架出货量达3万台[89][91] - **HBM需求**:2025年NVIDIA占全球HBM需求的72%,总需求预计增长至15.6亿GB[103][112] 4. **市场趋势与投资建议** - **推荐标的**: - **美国**:NVIDIA、Broadcom、Astera Labs[5][52] - **亚洲**:TSMC、三星、Alchip、MediaTek[5][52] - **云资本支出**:2026年预计增长31%至5820亿美元,AI服务器支出占比提升[64][65] --- 其他重要内容 1. **数据验证与限制** - **MLPerf基准**:理论TPS计算比实际高20%,因软件优化和规模效率限制[22][50] - **价格假设**:token定价基于GenAI API和GPU租赁成本,未考虑LLM竞争壁垒[44] 2. **供应链风险** - **CoWoS瓶颈**:非TSMC供应商(如Amkor/UMC)产能扩张缓慢,2025年TSMC仍占主导[87][94] - **电力约束**:AI数据中心扩张受电力供应限制,Meta的1GW集群需约10-200亿美元基础设施投资[14][45] 3. **区域动态** - **中国AI需求**:尽管NVIDIA游戏显卡降价,推理需求仍强劲[73] - **地缘风险**:部分公司(如华为、SMIC)受制裁影响,供应链需合规审查[116][117] --- 数据引用 - **NVIDIA GB200**:单机架TDP 132kW,100MW支持750机架[18] - **HBM成本**:2025年NVIDIA B300芯片HBM3e成本占816,077GB总需求[112] - **TSMC收入**:2025年AI相关收入占比25%,达145亿美元[61][110] (注:部分文档如[7][8][115]等为免责声明或重复内容,未纳入分析)