UALink

搜索文档
高盛Communacopia与技术大会之硬件:AI推动企业服务器与网络市场分化,高端厂商盈利可期
智通财经· 2025-09-12 09:52
在高盛近日举行的Communacopia与技术大会上,硬件领域显示AI服务器需求呈现分化态势—— 650Group数据显示,戴尔科技(DELL.US)正从超微电脑(SMCI.US)手中抢占高端市场份额,慧与科技 (HPE.US)亦在成本控制下实现增长,但传统企业服务器市场因企业优先投资AI基础设施而短期承压。 高盛预计至2027年,成熟的新云服务提供商将逐步转向ODM定制或半定制服务器设计,而戴尔科技、 慧与科技等企业级服务器厂商虽x86单位销量预计下滑,但高均价与利润率可通过核心数量增长及加密 技术维持收入稳定。 后端规模扩展网络市场方面,2029年总规模有望达230亿美元,其中以太网规模扩展增量市场约80亿至 100亿美元,NVLink虽目前主导规模扩展后端网络,但以太网未来将成为其有力竞争替代方案, UALink和PCle则维持小众市场地位。 软件技术领域,AI网络在超大规模、二级云/新云、企业及主权客户垂直领域均保持竞争活力。超大规 模企业因AI经济转型需求强劲,品牌供应商持续主导;二级云领域Spectrum-X捆绑网络/计算解决方案最 具适配性;企业市场则因戴尔科技、慧与科技、思科(CSCO.US) ...
Astera Labs (ALAB) 2025 Conference Transcript
2025-09-04 13:52
**Astera Labs 公司及行业关键要点总结** **公司及行业概览** * 公司为Astera Labs 专注于为云和AI基础设施提供连接解决方案[2][3] * 公司是UCIe Link联盟的推广成员 致力于开放生态系统[42] * 行业正处于AI周期的早期阶段 预计未来仍需10倍至100倍的性能提升[11][12] **核心产品与市场定位** * 核心产品包括三大类 * Ares Retimer:用于PCIe 连接 在PCIe Gen5市场占据领导地位 广泛部署于NVIDIA GPU、AMD GPU及众多ASIC中[4][57] * Taurus:用于以太网连接 功能类似于Ares对PCIe的作用[5] * LEO:CXL内存扩展设备 用于为计算系统增加内存[5] * 新推出的Scorpio产品线包括两个系列 * Scorpio P系列:符合标准的PCIe交换机 主要用于Scale-out应用 已开始量产并产生收入[26][29] * Scorpio X系列:专为使用PCIe或其定制协议进行Scale-up的客户设计 已有超过10个客户处于不同合作阶段 包括超大规模客户 预计2026年将带来更大收入[23][30][31] * 产品路线图包括支持UCIe Link的新产品 预计2026年下半年样品 2027年产生收入[45] **财务表现与增长驱动** * 营收呈现高速增长 * 2023年营收1.16亿美元[6] * 2024年营收3.96亿美元[6] * 2025年至今已实现约3.5亿美元营收[6] * Scorpio产品线在2024年第二季度开始上量 预计在第三、第四季度及2026年持续增长 近期需求主要由P系列驱动[29] * Ares业务预计今年增长超过60% 且随着向PCIe Gen6过渡 ASP预计提升约20% 单位需求也将增长[61][59] * 单加速器价值含量持续提升 * 几年前:每加速器约50-100美元内容价值[37] * 2024年:每加速器略超100美元内容价值[37] * Scorpio P系列平台:每加速器数百美元内容机会[38] * Scorpio X系列:目标达到每加速器1000美元以上[38] **市场趋势与行业动态** * AI模型变得庞大 需要多个GPU协同工作 Scale-up(纵向扩展)网络成为新的机遇[7][8] * 行业存在三种主要的Scale-up生态系统 * NVIDIA NVLink:最大规模的已部署网络 专为AI系统构建[47][48] * 以太网生态系统:由博通推动 尝试将Scale-up概念添加到以太网上[49] * UCIe Link生态系统:结合PCIe协议优势和以太网高速SerDes 专为AI工作负载构建 优势在于其开放性和技术优越性[41][42][50][51] * 超大规模客户渴望回归开放生态系统 以创新和区分其解决方案 UCIe Link提供了这种能力[54] **竞争优势与战略** * 核心竞争力在于其Cosmos软件系统 该软件优先的架构能快速识别和修复问题 提供诊断、定制和优化能力[63][64][65] * 在向PCIe Gen6过渡中拥有先发优势 其Gen6产品已开始量产 而竞争对手尚未提供可工作的样品[67] * 公司愿景是提供全机架级别的连接解决方案(AI Infrastructure 2.0) 涵盖半导体、硬件和软件 而不仅仅是一家Retimer公司[84] **客户与合作伙伴** * 客户群涵盖所有知名的超大规模企业 包括美国及美国以外的全球客户[23] * 与领先的GPU平台提供商紧密合作 共同开发生态系统[68] * Scorpio X系列的客户参与度极高 许多客户已有向UCIe Link迁移的计划[43] **风险与挑战** * AI行业发展可能并非单调上升 会经历起伏[13] * 竞争对手是大型半导体公司(如博通、Marvell) 拥有优秀的工程师 最终会解决问题[69] * 最终哪个Scale-up生态系统能胜出尚不确定 存在市场分化的可能性[75][76]
挑战Nvlink,华为推出互联技术,即将开源
半导体行业观察· 2025-08-28 01:14
技术发布与核心特性 - 华为在Hot Chips 2025大会上推出UB-Mesh技术 旨在通过单一协议统一AI数据中心内外部节点的所有互连 取代PCIe CXL NVLink和TCP/IP等协议 [1] - 该技术计划下月向所有用户免费开放并开源规范 以降低延迟 控制成本并提高千兆级数据中心可靠性 [1] - UB-Mesh将数据中心转变为连贯的超级节点 支持任何端口间无需协议转换的直接通信 每芯片带宽从100 Gbps提升至10 Tbps(1.25 TB/s) 跳跃延迟从微秒级降至约150 ns [5][7] 技术架构与性能优势 - SuperNode架构可整合多达1,000,000个处理器(CPU/GPU/NPU) 池化内存 SSD NIC和交换机 采用同步加载/存储语义替代异步DMA [7] - 网络拓扑采用混合模型:顶层CLOS结构连接大厅机架 下层多维网格连接机架内数十节点 避免传统设计在数万节点扩展时的高成本 [18] - 支持高速SERDES连接灵活重用 保留以太网向后兼容性 并通过链路级重试机制 光模块备份通道及交叉设计解决光纤传输高错误率问题 [10][14] 成本与可靠性改进 - UB-Mesh成本扩展呈亚线性 传统互连成本随节点数量线性增长 可能超过AI加速器(如Nvidia H100/B200)本身价格 [23] - 系统模型配备热备用机架自动接管故障 平均故障间隔时间提升数个数量级 适用于百万芯片系统 [23] - 8192节点实用系统证明结合CLOS和二维网格单元的可行性 [23] 行业竞争与标准化前景 - 该技术旨在减少华为下一代数据中心对西方标准(PCIe/NVLink/UALink/TCP/IP)的依赖 提供数据中心级解决方案而非仅硬件竞争 [27] - 行业现有方案包括Nvidia(机架内NVLink+数据中心以太网/InfiniBand)和AMD/博通/英特尔(标准化UALink+超级以太网) [27] - 开放协议旨在推动第三方评估与潜在标准化 但实际采用取决于客户对单一供应商方案的接受度及华为自身部署成功案例 [1][27]
全球科技-I 供应链:-OCP 峰会要点;AI 工厂分析;Rubin 时间表-Global Technology -AI Supply Chain Taiwan OCP Takeaways; AI Factory Analysis; Rubin Schedule
2025-08-18 01:00
行业与公司 - **行业**:全球科技行业,特别是AI供应链和半导体领域[1][9] - **公司**: - **NVIDIA**:Rubin芯片按计划推进,预计2026年量产[4] - **Broadcom & AMD**:在OCP研讨会上争论UALink与Ethernet技术优劣[2][10] - **Meta**:计划2026年部署1GW(Prometheus)和未来5GW(Hyperion)AI集群[3] - **TSMC**:2025年CoWoS产能分配中,NVIDIA占主导(63%)[86][100] --- 核心观点与论据 1. **AI工厂经济性** - **成本与利润**:100MW AI工厂在每百万token 0.2美元的价格下,年利润可达8.93亿美元,平均利润率超50%[43][47] - **TCO分析**:100MW AI推理设施的年TCO为3.3-8.07亿美元,硬件投资范围3.67-22.73亿美元[31][45] - **性能对比**:NVIDIA GB200 NVL72在性能和利润上领先,TPU因低成本策略逐步缩小差距[47][49] 2. **技术竞争(UALink vs. Ethernet)** - **Broadcom**:主张Ethernet灵活性(延迟250ns),不限定延迟以促进创新[2][10] - **AMD**:强调UALink标准化延迟(类似PCIe/CXL),确保AI工作负载性能,获云服务商支持[2][10] - **NVIDIA优势**:NVLink 5.0带宽1800GB/s,远超PCIe 5.0(126GB/s)[22] 3. **芯片与供应链动态** - **NVIDIA Rubin**:2025年10月首次流片,2026年Q2量产[4] - **CoWoS产能**:2025年TSMC预计生产510万颗芯片,GB200 NVL72服务器机架出货量达3万台[89][91] - **HBM需求**:2025年NVIDIA占全球HBM需求的72%,总需求预计增长至15.6亿GB[103][112] 4. **市场趋势与投资建议** - **推荐标的**: - **美国**:NVIDIA、Broadcom、Astera Labs[5][52] - **亚洲**:TSMC、三星、Alchip、MediaTek[5][52] - **云资本支出**:2026年预计增长31%至5820亿美元,AI服务器支出占比提升[64][65] --- 其他重要内容 1. **数据验证与限制** - **MLPerf基准**:理论TPS计算比实际高20%,因软件优化和规模效率限制[22][50] - **价格假设**:token定价基于GenAI API和GPU租赁成本,未考虑LLM竞争壁垒[44] 2. **供应链风险** - **CoWoS瓶颈**:非TSMC供应商(如Amkor/UMC)产能扩张缓慢,2025年TSMC仍占主导[87][94] - **电力约束**:AI数据中心扩张受电力供应限制,Meta的1GW集群需约10-200亿美元基础设施投资[14][45] 3. **区域动态** - **中国AI需求**:尽管NVIDIA游戏显卡降价,推理需求仍强劲[73] - **地缘风险**:部分公司(如华为、SMIC)受制裁影响,供应链需合规审查[116][117] --- 数据引用 - **NVIDIA GB200**:单机架TDP 132kW,100MW支持750机架[18] - **HBM成本**:2025年NVIDIA B300芯片HBM3e成本占816,077GB总需求[112] - **TSMC收入**:2025年AI相关收入占比25%,达145亿美元[61][110] (注:部分文档如[7][8][115]等为免责声明或重复内容,未纳入分析)
OCP亚太峰会要点 - 持续升级人工智能数据中心的路线图-APAC Technology Open Compute Project (OCP) APAC Summit Takeaways - A roadmap to continue upgrading the AI data center
2025-08-11 02:58
行业与公司概述 - **行业**:AI数据中心硬件、半导体、存储、网络及冷却技术[2][4][7] - **核心公司**: - **硬件/组件**:Accton、Delta、Lite-On - **半导体**:TSMC、AMD、ASE、Astera Labs、Broadcom - **存储**:Seagate - **超大规模云服务商**:Google、Meta、Microsoft - **电信**:NTT[2][7] 核心观点与论据 1. **AI数据中心技术路线图** - **Meta的Hyperion数据中心**:早期阶段,利好服务器ODM厂商(如Quanta、Wiwynn)及ASIC合作伙伴[4] - **AMD的UALink与Ultra Ethernet**: - UALink(低延迟扩展)比以太网快3-5倍(延迟210-260ns vs. 650ns-1.3ms)[11][12] - Ultra Ethernet(高吞吐扩展)支持超100万端点,效率优于传统RDMA[11][12] - **NVIDIA路线图**:Rubin GPU预计2026年Q3推出,功耗从B200的1,000W增至Rubin Ultra的3,600W(2027年)[4][23] 2. **电力与冷却创新** - **高电压直流(HVDC)**:从480V AC转向800V DC,减少铜用量,提升效率[23] - **液冷技术**: - 当前采用液对空冷却,2027年转向液对液[4] - Google的“Project Deschutes”CDU支持1.5MW冷却能力[24] - **固态变压器(SST)**:替代传统油冷变压器,依赖硅材料而非铜/铁[23] 3. **封装与光学技术** - **ASE的封装方案**: - FOCoS-Bridge解决内存带宽瓶颈,HBM堆栈从8个增至12-16个(2028年)[15] - 面板级扇出封装利用率达87%(传统300mm晶圆仅57%)[15] - **TSMC的CoWoS与CPO**: - CoWoS-L支持12个HBM3E/4堆栈(2025年),9.5倍光罩设计(2027年)[42] - CPO能耗从30pJ/bit降至<2pJ/bit[42] 4. **存储与网络** - **Seagate的HAMR硬盘**:容量从18TB(2024年)增至80TB+(2032年),NVMe协议替代SAS/SATA[41] - **Broadcom的以太网方案**: - Tomahawk Ultra(51.2Tbps)延迟<400ns,Tomahawk 6(102.4Tbps)支持128,000 GPU集群[19][22] 其他重要内容 - **边缘AI市场**:与数据中心架构不同,需低功耗集成(如MediaTek的SoC)[30] - **开放标准生态**:OCP推动硬件设计标准化,降低TCO(如Google开源Mt. Diablo电源架设计)[24][36] - **能源挑战**:AI服务器占全球数据中心电力需求增长的70%(2025-2030年)[34] 投资建议 - **推荐标的**: - **ODM厂商**:Quanta、Wiwynn、Hon Hai - **半导体**:TSMC(AI GPU代工主导)、ASE(封装)、MediaTek(边缘AI) - **电力/冷却**:Delta(HVDC市占领先)[5][21][28] 数据引用 - AMD预计2028年AI市场规模超5亿美元[11] - AI后端网络市场2028年或超300亿美元(650 Group数据)[18] - 全球数据量从72ZB(2020年)增至394ZB(2028年)[41] (注:部分文档如法律声明[44-108]未包含实质性行业/公司信息,已跳过)
PCIe,狂飙20年
半导体行业观察· 2025-08-10 01:52
PCIe技术发展历程 - PCIe 8.0标准发布,数据传输速率达256GT/s,实现带宽翻倍,成为技术发展里程碑[1] - PCIe技术用20余年重构计算机数据传输格局,从串行总线革命到每秒256GT速度突破[1] - PCIe最初由Intel在2001年提出,旨在替代旧的PCI、PCI-X和AGP总线标准[3] - PCIe通过串行总线架构实现对传统PCI并行总线的全面革新[9] - PCIe技术历经8代迭代,从1.0的2.5GT/s到8.0的256GT/s,每代实现速率翻倍[13][43] PCIe核心技术特性 - 串行通信机制:以串行传输替代并行架构,减少信号干扰,提升传输效率[11] - 点对点连接设计:每个外设通过独立链路直接对接根复合体,消除总线竞争瓶颈[11] - 可扩展带宽能力:支持通过通道数量线性扩展带宽,匹配不同设备需求[11] - 采用PAM4调制技术替代传统NRZ编码,实现带宽翻倍[23] - 引入流量控制单元(FLIT)编码,提升传输效率[27] PCIe各代技术演进 - PCIe 1.0:2003年推出,单通道2.5GT/s,带宽250MB/s[14] - PCIe 2.0:2007年发布,速率翻倍至5GT/s,带宽500MB/s[15][17] - PCIe 3.0:2010年发布,速率8GT/s,带宽约1GB/s[17][18] - PCIe 4.0:2017年问世,速率16GT/s,带宽约2GB/s[19] - PCIe 5.0:2019年发布,速率32GT/s,带宽约4GB/s[22] - PCIe 6.0:2022年发布,速率64GT/s,带宽8GB/s[23] - PCIe 7.0:2024年公布,速率128GT/s,带宽16GB/s[27][31] - PCIe 8.0:2025年开发中,速率256GT/s,带宽32GB/s[38][42] PCIe市场应用 - 云计算领域占据最大份额(超过50%),主导数据中心和服务器应用[46] - 汽车行业采用率自2020年起稳步上升,满足AI和ADAS需求[46] - 移动设备市场份额稳定在10%-20%,用于智能设备和高效互联[46] - 消费类电子市场份额逐步扩大,应用于家庭设备和个人电脑[46] - 工业领域采用率缓慢增长,重要性随工业自动化和IoT发展日益凸显[46] PCIe技术挑战与竞争 - 面临NVLink、Infinity Fabric等专用互联技术的挑战[55] - UALink联盟成立,开发开放行业标准应对AI数据中心需求[56] - CXL协议推出,实现与PCIe兼容的同时满足异构计算需求[63] - 光互连技术有望突破电信号传输物理瓶颈[37][71] - 速率持续翻倍面临信号质量、走线设计和封装材料等挑战[43]
Astera Labs, Inc.(ALAB) - 2025 Q2 - Earnings Call Transcript
2025-08-05 21:32
财务数据和关键指标变化 - 第二季度营收达1亿9190万美元 环比增长20% 同比增长150% [7] - 非GAAP毛利率76% 环比提升110个基点 [20] - 非GAAP营业利润率39.2% 环比提升550个基点 [20] - 运营现金流1亿3540万美元 期末现金及等价物10亿7000万美元 [21] - Q3营收指引2亿300万至2亿1000万美元 环比增长6%-9% [21] 各条业务线数据和关键指标变化 - Scorpio PCIe交换机产品线营收占比超10% 成为公司史上增长最快产品线 [7] - Scorpio P系列支持PCIe 6.0的规模扩展应用 已进入量产阶段 [7] - Scorpio X系列针对XPU间互联的规模扩展拓扑 预计2025年底开始出货 [14] - ADX产品家族在GPU和定制ASIC系统中实现多样化应用 [8] - Taurus以太网产品线因AI加速器需求实现强劲增长 [9] 各个市场数据和关键指标变化 - 与NVIDIA扩大合作支持NVLink Fusion技术 [9] - 与Alchip Technologies合作推进AI机架基础设施生态系统 [9] - 参与AMD UALink生态系统建设 展示内存语义扩展架构 [10] - 已与10余家AI平台和云基础设施提供商就规模扩展网络方案展开合作 [15] 公司战略和发展方向和行业竞争 - 定义AI基础设施2.0为开放标准化机架平台 预计到2030年规模扩展连接市场达50亿美元 [12] - 战略定位为全栈连接解决方案提供商 支持PCIe/Ethernet/CXL/UALink等多种协议 [11] - 通过Cosmos软件实现产品统一管理和性能优化 [11] - UALink被视为最具开放性的规模扩展标准 预计2027年后成为长期增长动力 [17] 管理层对经营环境和未来前景的评论 - AI基础设施2.0转型处于早期阶段 将推动未来几年行业连接需求 [12] - 规模扩展网络对AI性能至关重要 Scorpio X系列将成为下一代AI机架的核心组件 [15] - 预计Scorpio X系列收入将快速超越P系列 带动单加速器硅含量显著提升 [15] - 2026年后云平台将开始部署AI基础设施2.0 推动新一轮市场机会 [16] 问答环节所有提问和回答 Scorpio产品差异化优势 - 客户信任度+执行记录+Cosmos软件构成三大核心竞争力 [28] - Cosmos可实现延迟优化/吞吐提升/诊断定制 使Scorpio成为架构设计首选 [30] UALink市场接受度 - 获AMD全面支持 至少另一家ASIC厂商将采用该标准 [33] - 技术优势包括PCIe基础/内存语义/200Gbps速率 已有10+客户评估 [37] 规模扩展与规模扩展网络差异 - 规模扩展(Scorpio X)连接密度更高 单加速器硅含量可达数百美元 [68] - 规模扩展(Scorpio P)应用更广泛 包括GPU/存储/混合连接 [42] 财务指标展望 - Q3税率20%因税法变更 后续将回归15%长期水平 [46] - 硬件模块增长可能使毛利率逐步向70%长期目标靠拢 [47] 非AI市场机会 - AMD Venice CPU推动PCIe Gen6在通用服务器渗透 [91] - CXL内存扩展控制器(LEO)随支持CPU上市获得新机会 [92] 技术标准竞争 - UALink端到端延迟优于250ns的Scale-Up Ethernet方案 [102] - 开放生态(UALink)相比供应商锁定(SUE)更具长期优势 [97] 供应链策略 - AEC模块采用多供应商电缆组装模式 瞄准2026年800G规模上量 [108] - 与Alchip合作旨在构建开放可扩展的AI机架生态系统 [117]
Astera Labs, Inc.(ALAB) - 2025 Q2 - Earnings Call Transcript
2025-08-05 21:30
财务数据和关键指标变化 - 第二季度营收达1.919亿美元,环比增长20%,同比增长150% [6][20] - 非GAAP毛利率为76%,较上一季度提升110个基点 [22] - 非GAAP营业利润率为39.2%,环比提升550个基点 [23] - 运营现金流为1.354亿美元,期末现金及等价物达10.7亿美元 [23] - 第三季度营收指引为2.03-2.1亿美元,环比增长6%-9% [23] 各条业务线数据和关键指标变化 - **Scorpio系列**:PCIe交换机产品线收入占比超10%,成为公司历史上增长最快的产品线 [7][15] - **Ares系列**:支持PCIe Gen6和以太网连接的retimer产品,在AI服务器和通用计算平台持续增长 [21] - **Taurus系列**:以太网电缆模块业务增长,主要服务于最新GPU和定制ASIC系统 [8][21] - **LEO系列**:CXL内存控制器处于预生产阶段,客户正在扩大开发集群以适配新一代CPU平台 [8][22] 公司战略和发展方向 - 推动AI基础设施2.0转型,聚焦开放、标准化的多供应商生态系统 [10][12] - 扩大与NVIDIA、AMD、Alchip等生态伙伴的合作,开发UA Link等开放互联标准 [9][17] - 预计到2030年,AI机架级互联市场规模将达50亿美元,公司将持续投入研发以捕捉机遇 [12][16] 管理层对经营环境和未来前景的评论 - AI基础设施2.0转型处于早期阶段,公司将通过Scorpio X系列等产品引领行业趋势 [12][17] - UA Link标准获得行业广泛认可,预计2027年后将成为长期增长动力 [17][37] - 通用计算市场(如PCIe Gen6 CPU平台)和CXL内存扩展技术将带来额外增长机会 [94][95] 问答环节所有提问和回答 Scorpio产品线竞争力 - 差异化优势包括客户紧密合作、执行记录和Cosmos软件套件,可实现低延迟和高吞吐量 [29][31] - Scorpio X系列已获10+客户设计导入,预计2026年进入量产阶段 [43][45] UA Link市场前景 - 技术优势包括低延迟、内存语义支持和开放生态系统,预计2027年大规模部署 [35][37] - 相比以太网方案,UA Link专为AI工作负载优化,具有更高带宽利用率 [99][101] 财务模型与税务影响 - Q3非GAAP税率因税法变更临时上调至20%,后续将回落至15%左右 [48] - 长期毛利率目标维持70%,硬件模块业务增长可能短期压制利润率 [123] 竞争格局与技术对比 - Broadcom推出的250ns延迟以太网交换机仍高于PCIe/UA Link方案 [105][107] - 以太网在AI机架级互联中存在协议效率瓶颈,UA Link更适配内存语义需求 [99][101] 产品路线图与增长阶段 - 公司增长分为五个阶段:PCIe retimer→ASIC扩展→Scorpio P系列→Scorpio X系列→UA Link生态 [84][86] - Scorpio X系列将显著提升单加速器硅含量,推动收入基准再上台阶 [16][86]
NVLink, UALink, NeuronLink, SUE, PCIe – Astera Labs Switch
2025-08-05 08:17
行业与公司 - 行业涉及**AI加速器芯片互联协议**与**数据中心交换机芯片**市场[1][2] - 公司为**Astera Labs (ALAB US)**,专注于PCIe中继器/交换机芯片及定制化互联解决方案[1][12] --- 核心观点与论据 **1 互联协议技术对比** - **NVLink (NVIDIA)** - 单端信号SerDes技术节省80%芯片面积或提升80%带宽密度[3][4] - 速度达900GB/s单向(Blackwell GPU),但仅支持576节点直连,需光纤扩展[5] - **UALink (AMD主导)** - 差分信号SerDes抗干扰强,支持1,024节点铜缆直连[5] - 双版本:UALink 200G(GPU直连专用)与128G(兼容PCIe Gen7,支持异构计算)[6][9] - **SUE (Broadcom)** - 基于以太网物理层但简化协议栈,传输效率高但异构扩展性弱于UALink[10] - **NeuronLink (AWS)** - 改良版PCIe,支持超频,Trainium 2.5采用NeuronLink3(PCIe5),Trainium 3升级至NeuronLink4(PCIe7)[13][15][23] **2 Astera Labs增长驱动** - **AWS Trainium系列合作** - **Scorpio-X交换机芯片**: - Trainium 2.5 Teton PDS机架采用PCIe6交换机(160通道,$1,120/片),每百万芯片价值$5.5亿[17][19] - 配套小交换机芯片(64通道,$400/片),总价值达$17.5亿/百万芯片[20][22] - Trainium 3 Teton Max机架升级至PCIe7/UALink 128G双模交换机(320通道,$2,560/片),总价值$33亿/百万芯片[23][26] - **未来布局**:Trainium 4可能合作设计I/O芯片,潜在收入$1.5亿/百万芯片[27][28] - **AMD MI400系列合作** - 开发UALink 200G交换机(432通道,$3,456/片),每百万GPU价值$5.76亿[29][32] - 预计2026年Q1流片,Q4量产[12][31] **3 关键数据与单位换算** - **带宽计算**: - Trainium 2.5单芯片带宽640GB/s,机架总需求40,960GB[17] - MI400单GPU带宽1,800GB/s,机架总需求129,600GB[32] - **价格假设**: - PCIe6交换机$7/通道,PCIe7升至$8/通道[19][26] - UALink 200G交换机ASP $8/通道[32] --- 其他重要细节 - **技术实现差异**:UALink 128G通过共享PCIe Gen7 PHY层实现双模切换[7] - **时间节点**: - AWS Trainium 2.5 Teton PDS机架2025年Q4推出[16] - AMD Helios机架2026年Q4量产[12][31] - **竞争壁垒**:Astera Labs因同时具备中继器/交换机设计能力被AWS选为I/O芯片合作伙伴[27][28] --- 潜在风险与机会 - **技术替代风险**:NVIDIA NVLink在带宽密度优势可能持续压制对手[4][5] - **市场机会**:PCIe7/UALink双模芯片或成异构计算关键解决方案[9][23]
博通发布芯片,给了英伟达一重拳
半导体行业观察· 2025-07-16 00:53
芯片行业竞争格局 - AMD等芯片供应商在GPU FLOPS、内存带宽和HBM容量方面正缩小与Nvidia的差距,但在高速互连技术(如NVLink/NVSwitch)上仍落后,导致其扩展能力受限(目前仅支持8个GPU,而Nvidia可达72个GPU)[3] - 行业为解决扩展限制提出新兴协议UALink(Nvidia NVLink的开放替代方案),但博通等公司认为以太网技术(如SUE)已能更快实现同等目标[3][4] 技术方案对比 - 博通推出**扩展以太网(SUE)**技术,声称可支持1024个加速器的扩展系统,优于Nvidia NVLink的576个加速器上限(实际部署未超72个GPU)[4] - 博通发布**Tomahawk Ultra**交换机ASIC(51.2 Tbps带宽),性能超过Nvidia第五代NVLink交换机(28.8 Tbps),支持128个加速器的扩展架构[5][7] - Tomahawk Ultra优化了高性能计算场景:250纳秒延迟、770亿次64字节数据包/秒吞吐量,并支持网络内集体操作(类似Nvidia的SHARP技术)[5][6] UALink与以太网的竞争动态 - UALink联盟预计交换机延迟为100-150纳秒,若实现将优于当前以太网方案,但硬件尚未上市[7] - AMD采取混合策略:其Helios机架系统同时使用UALink和以太网,初期通过以太网隧道传输UALink协议以加速部署,但牺牲了延迟性能[9][10] 厂商战略差异 - 博通暂未放弃UALink但优先推进SUE,认为以太网在监控、调试工具和兼容性方面更具优势[3][4] - AMD选择双协议并行,以应对Nvidia未来600千瓦、144 GPU的Kyber系统竞争,避免技术空窗期[10]