Workflow
CXL
icon
搜索文档
MRVL_将 CES 列为正面催化事件观察
2025-12-25 02:42
涉及的公司与行业 * **公司**:Marvell Technology Inc (MRVL.O) [1] * **行业**:半导体、数据中心、人工智能(AI)计算与网络 [4] 核心观点与论据 * **投资评级与目标**:花旗对Marvell给予“买入”评级,目标价114美元,基于2027年预期每股收益的26倍市盈率贴现得出,该倍数与其三年历史平均水平基本一致 [2][11] 预期股价回报率为35.6%,总回报率为35.9% [2] * **核心投资主题**:坚信Marvell的同比销售增长将在2026/27年因AI数据中心需求而加速,认为市场对两家超大规模客户在XPU方面的竞争以及1.6T速率下光模块/DSP机会的担忧是错误的,财报后股价疲软是买入机会 [1] * **近期催化剂**:增加为期30天的“上行催化剂观察”,预计在1月6-7日的CES展会上,Marvell及其同行将强调包括CPO(共封装光学)在内的横向扩展网络日益普及,这可能有助于Marvell赢得Trainium 4项目 [10] * **财务预测**:对4月所在季度的预估比市场普遍预期高出2% [1][10] AI市场机遇 * **全面布局**:AI触及计算、光通信和网络所有生态,本质上是一个网络架构问题,Marvell凭借其产品组合与所有主要超大规模客户均有合作 [4] * **需求强劲**:过去三年,需求持续超出最初预测,超大规模客户越来越关注定制训练和推理,并对容量表示担忧,希望通过与多个供应商合作来增加灵活性,相关讨论已延伸至2027年,甚至开始讨论2028/29年的AI架构 [4] 定制销售业务 * **增长预测**:定制销售额预计将从今年的约15亿美元增长至2026年的18亿美元,同比增长20%,且增长集中在下半年;预计2027年将翻倍至36亿美元,届时其增长将与市场同步 [5] * **客户关系**:与现有XPU客户的关系因收购Celestial AI而加强,涉及下一代项目(被认为是Trainium 4),基础业务预计在2027年实现同比增长;与第二大主要XPU客户(被认为是微软)的合作进展顺利 [5] * **长期潜力**:展望2028年,定制市场约占计算机会的25%,Marvell目标份额约20%,拥有超过15个XPU附加插槽,每个插槽价值10-20亿美元,且增长率随时间推移而提高 [5] * **XPU附加插槽**:目前是Meta网络接口控制器(NIC)的供应商,预计明年晚些时候将有新的主要XPU附加插槽开始上量,2027年更多,这类插槽设计周期更长(2-4年),因此客户粘性高,将逐渐成为重要贡献者,通常包含更多Marvell自有IP,利润率也更好,例如NIC、CXL和芯粒,Marvell目前主导CXL XPU附加市场 [5] 供应链状况 * **产能保障**:公司订单已排满明年,正在管理光模块、先进封装等环节的行业级供应挑战,并在其主要代工合作伙伴台积电的良好支持下,确保了HBM/CoWoS产能 [6] 网络业务 * **市场地位**:对通过定制化功能和与每家超大规模客户的直接关系所保持的强劲DSP市场地位充满信心,1.6T速率将面临比800G更激烈的竞争,公司对此持开放态度 [7] * **交换业务增长**:Innovium交换业务销售额去年翻倍至2亿美元,今年将增长至3亿美元,明年达到5亿美元 [7] * **横向扩展市场**:这是一个全新的市场,Marvell将同时提供UALink和以太网解决方案,认为UALink由于在PCIe中进行内存操作,在技术上是更好的解决方案,但需要CPO来连接更多GPU/XPU,而以太网横向扩展网络(ESUN)则具有熟悉以太网的优势 [7] Celestial AI收购 * **市场机遇**:为Marvell开辟了到2030年总计180亿美元的新市场总规模,其中光通信100亿美元,交换机80亿美元 [8] * **技术优势**:Celestial AI的光子结构可用于独立GPU和光子芯粒,热稳定性优异,每家超大规模客户都非常感兴趣 [8] * **战略意义**:预计此次收购带来的增值机会将超过2020年收购Inphi [8] 风险因素 * **下行风险**:包括a) 存储业务疲软,b) 网络增长未实现,c) 在存储和网络领域均出现份额损失 [12] * **上行风险**:包括a) 更高的收购协同效应,b) 在存储和网络领域更快的份额增长 [12] 其他重要信息 * **利益披露**:花旗是Marvell Technology Inc.在一项涉及Celestial AI Incorporated的待定并购交易中的顾问,在过去12个月内,花旗环球金融有限公司或其关联公司曾担任Marvell证券发行的经理或联合经理,并从Marvell获得投资银行服务报酬,预计未来三个月内将寻求或获得相关报酬,与Marvell存在多种业务关系 [17][18][19][20] * **分析师持仓**:花旗环球金融有限公司及其关联公司在Marvell Technology Inc.拥有重大经济利益 [21]
Astera Labs (NasdaqGS:ALAB) FY Conference Transcript
2025-12-11 18:17
纪要涉及的行业或公司 * 公司为Astera Labs (NasdaqGS: ALAB),一家专注于解决AI系统连接性挑战的半导体公司 [1] * 行业涉及人工智能(AI)基础设施、数据中心、半导体(特别是连接性芯片,如重定时器、交换机、CXL产品)[3][6][10] 核心观点和论据 **1 对AI投资周期和公司角色的看法** * 公司认为AI投资周期仍处于早期阶段,需要大量计算能力来完善模型 [4][5] * 随着计算需求增长,连接性(connectivity)成为提升系统效率的关键瓶颈和更大问题,公司业务正是解决GPU/XPU/CPU之间的互连挑战 [6] * 公司未看到业务中有任何AI放缓的迹象,客户订单未显示放缓信号 [6] **2 内存瓶颈与CXL解决方案** * 随着AI模型参数增长(从IPO时讨论的约1万亿增至目前最大的3万亿以上),HBM内存容量不足成为瓶颈 [11] * CXL(Compute Express Link)技术可通过KV缓存卸载(KV cache offloads)和检查点(checkpointing)来解决AI推理和工作负载中的内存瓶颈 [11] * 公司CXL产品的首个部署将用于通用计算,已与微软合作,在数据中心私有环境中加速SAP HANA的数据库工作负载,通过提供更大内存将整个数据库置于内存中带来性能优势 [12] * CXL在AI中的角色将是作为HBM之后的第二层内存,其额外延迟可在AI工作负载中被隐藏 [14] * 预计CXL业务将在2026年下半年开始上量 [13] **3 Taurus平台(有线连接解决方案)进展** * Taurus是公司第四季度(Q4)增长的最大驱动力 [20] * 公司正在向领先的超大规模客户量产400千兆(400 gig)解决方案,并正在向800千兆(800 gig)方案推进,客户范围扩大 [20] * 800千兆解决方案预计将于明年(2026年)初开始部署,但更实质性的上量将在下半年,并叠加在持续增长的400千兆业务之上 [20] * 预计400千兆业务在2026年将继续增长,并比800千兆业务规模更大,但800千兆业务将在年底开始发挥作用 [21] **4 Aries平台(重定时器与交换机)业务动态** * 公司上市时(2024年3月),重定时器业务主要基于英伟达(NVIDIA)Hopper平台 [23] * 2024年,XPU(超大规模客户自研ASIC)的兴起推动了Aries业务的巨大增长,这些XPU用于横向扩展(scale out)和纵向扩展(scale up) [25] * 在纵向扩展中,公司通过AEC PCIe获得更高平均售价(ASP)的FCM模型 [25] * 从Hopper向Blackwell平台的过渡中,公司收入更多来自交换机而非重定时器 [25] * 展望2026年,公司预计将从第5代(Gen 5)重定时器向第6代(Gen 6)过渡,这将带来新的增长动力,同时Gen 5在超大规模客户部署中仍有大量增长 [25][26] * 目前仅有一家商用GPU供应商提供Gen 6产品,公司正与其大幅上量,预计今年晚些时候将有其他支持Gen 6的GPU/XPU部署 [30][32] **5 Scorpio X交换机(PCIe纵向扩展)与UALink机遇** * 公司正与超过10家客户就用于纵向扩展的Scorpio X系列(基于PCI Express或类似协议)进行合作,合作阶段从已确认设计到即将上量 [36][38] * Scorpio X系列本季度开始初步量产,明年上半年上量,下半年更显著增长 [39] * 高通(Qualcomm)近期公开表示支持PCI Express作为纵向扩展协议,因其是基于内存语义的负载存储协议,与NVLink和未来的UALink类似 [39][40] * 公司认为许多使用PCIe的客户将自然过渡到UALink,因为软件栈已优化,且UALink是更快版本的PCIe [40][42] * 公司在Scorpio产品上的客户参与度是30年行业经验中最高的 [42] * 预计PCIe Scorpio X产品组合将在2026年至2027年持续上量,新协议(如NVLink Fusion或UALink)在2027年后才可能成为主导 [48] **6 对NVLink Fusion及Trainium 4公告的看法** * 公司认为NVLink Fusion的发布为超大规模客户提供了更多选择,AI动态每三个月变化一次,需要灵活性 [49] * 公司强调,随着每一代GPU和XPU的演进,其单机价值(content)都在增长 [50] * Trainium 4公告提到两种部署:1)原生机架(使用NVLink或UALink直接连接交换机),这对UALink是积极进展;2)使用NVLink Fusion的混合机架 [50] * 在NVLink Fusion方案中,需要一个复杂组件进行协议转换、管理数据流和安全性,该组件需附着于每个XPU,而交换机方案通常一个交换机连接多个XPU [51][54] * 公司对此次公告感到兴奋,并认为这体现了超大规模客户和英伟达对公司开发此关键组件能力的信任 [54] * 关于XPU与CPU之间的连接,内容取决于系统架构(如距离远近),在Grace Blackwell平台中,重定时器内容已消失,但若距离较远仍需信号调节组件 [60][62] **7 UALink交换机战略与竞争格局** * 目前市场上尚无UALink交换机,仍处于早期阶段和绿地部署 [63][65] * 公司策略是在产品就绪并能在展会上演示时才会讨论 [65] * 公司通过PCIe纵向扩展拓扑积累了丰富经验,包括确保复杂机架可靠高效运行的Cosmos软件和遥测能力,这些将延续到UALink产品中 [66] * 公司对执行UALink交换机计划非常有信心,预计2026年下半年将出现用于管道清理的样品,2027年完成全面认证,之后在产品中上量 [66][67] * 公司认为未来将是一个多种标准共存的分化世界:NVLink生态、PCIe/UALink生态、以及基于以太网RDMA的生态将长期并存 [73][74][76] * 对于以太网交换机市场,公司持开放但谨慎态度,目前专注于PCIe向UALink过渡的巨大机会,若客户要求或情况变化会考虑进入,但需面对强大的现有竞争对手 [80][82][83] **8 光学互连(Optics)战略与X Scale收购** * 光学互连是公司的巨大机遇,可将铜链路的收入显著提升 [87] * 随着系统更复杂、数据速率提升,纵向扩展域将从单个机架扩展到多个机架,届时必须采用光学互连,预计拐点可能在2028-2029年 [88] * 在全面部署前,2027年将有一些管道清理部署 [88] * 收购X Scale是为了获得光学连接器的关键技术和量产能力,这是将光子集成电路(PIC)耦合到光纤并可靠扩展的瓶颈环节 [91] * 公司具备自研电芯片(EIC)和光子芯片(PIC)的能力,但也愿意根据客户需求与其他光子技术供应商合作 [89][90][94] **9 财务与资本配置** * 公司的长期毛利率目标模型为70%,并相信随着产品组合拓宽和市场扩大,能够实现40%的营业利润率 [95] * 公司目前盈利能力很强,正在积累大量现金 [95] * 鉴于公司上市仅一年,处于早期阶段,现金将优先用于战略性并购或其他战略举措 [96] * 随着公司成熟并持续产生正向现金流记录,将寻求回报投资者的方式 [96] 其他重要内容 * 公司产品线包括:用于互连的重定时器(retimers)和交换机(switches)(Aries平台),有线连接解决方案(Taurus平台),用于内存扩展的CXL产品,以及用于纵向扩展的PCIe/UALink交换机(Scorpio X系列) [7][10][18][33][45] * 公司强调其核心是解决连接性挑战,提升AI基础设施效率 [10] * 公司提及与超大规模客户(hyperscalers)的紧密合作与互动 [25][42][50] * 公司提及行业协议演进:从PCIe Gen5向Gen6过渡,以及未来向UALink的演进 [25][40]
Rambus (NasdaqGS:RMBS) FY Conference Transcript
2025-12-10 14:32
公司概况与业务构成 * 公司是Rambus,拥有超过35年高性能内存子系统经验,是领先的IC和硅IP解决方案供应商,专注于解决数据中心内内存与处理器之间的瓶颈[3] * 公司业务分为三部分:专利授权业务、硅IP业务和芯片产品业务[4] * 专利授权业务年收入约2.1亿美元,毛利率100%,非常稳定,是公司的现金牛,但长期不预期增长[4] * 硅IP业务去年收入1.2亿美元,年增长率10%-15%[5] * 芯片产品业务采用无晶圆厂半导体模式,今年(按Q4指引中值)收入约3.4亿美元,较去年增长40%,是高速增长业务,由数据中心需求驱动[5] 市场机遇与产品战略 * 核心产品是位于内存模组上的接口芯片,其总目标市场规模约为每年8亿美元[6] * 从DDR4向DDR5过渡带来了额外的配套芯片机会,包括电源管理芯片、SPD Hub控制器和两个温度传感器,这部分TAM增加约6亿美元,使总TAM从8亿美元增至14亿美元[6][8][9] * 技术从数据中心扩展到高端客户端系统(如高端PC),增加约2亿美元TAM[7] * 新技术MRDIMM预计增加约6亿美元TAM[7] * MRDIMM技术可将单个模组的内存容量和访问带宽都翻倍,且无需改变服务器架构[12][13] * 对于公司而言,MRDIMM将使单模组内容价值提升至当前标准DDR5 DIMM的四倍,原因是接口芯片和电源管理芯片更复杂昂贵,并需额外增加10个用于数据复用的芯片[14][15] * MRDIMM的推广时间将与英特尔和AMD的下一代平台(Diamond Rapids和Venice)绑定,预计在2026年底至2027年初开始上量[15] 人工智能与服务器市场影响 * AI对业务总体利好,AI服务器并未蚕食传统服务器,因为AI服务器机箱内同时包含传统服务器部分(DDR内存和x86处理器)用于为GPU和HBM缓存和准备数据[10] * AI训练是技术采用的催化剂,而AI推理将成为未来的增长驱动力,因为推理更倾向于在传统服务器上运行,这驱动了对传统服务器的需求[10][11] 硅IP业务战略与竞争 * 硅IP业务高度聚焦于两个领域:安全和高性能接口[18][19] * 安全IP业务始于2011年,公司可能是独立公司中最大的安全硅IP提供商[19] * 高性能接口IP包括HBM控制器、GDDR控制器、PCIe控制器等,用于新一代服务器和AI服务器[20] * 该业务总收入约1.2亿美元,安全与高性能接口各占一半,年增长10%-15%[20] * 增长驱动力是数据中心的快速演进以及对更高速度和数据安全的需求[21] * 在安全领域,公司主要提供基于硬件的安全方案,并已开发出可应对未来量子计算威胁的量子安全核心[34][35] * 公司承认存在快速跟随者和内部自研方案的竞争,但对自身在安全硅IP市场的领先地位保持信心[34][36] CXL技术布局 * 公司在CXL领域有两种方式:作为硅IP业务的一部分提供CXL控制器IP;曾开发CXL产品但未商业化[16] * 认为CXL市场非常碎片化,主要用例是内存扩展,而MRDIMM是实现此目标的更优方案,因其由行业在产品层面定义且可利用现有基础设施[17] * 目前CXL产品仅作为硅IP业务的一部分,没有独立的CXL产品[17] 财务模型与资本配置 * 各业务毛利率:专利授权100%,硅IP约95%,芯片产品61%-63%[28] * 尽管产品业务(毛利率较低)占比将提升,但公司预计能维持约40%-45%的运营利润率[28] * 过去12个月产生了3亿美元的运营现金流[28] * 资本配置优先顺序:投资有机增长、寻求收购机会、向投资者返还现金[29] * 有机增长需求迫切,例如在DDR5时代需每年开发新接口芯片,速度快于DDR4时代的每两年一次[29] * 目标是将40%-50%的自由现金流返还给投资者,过去几年一直按此执行[30] 风险与市场关注 * 对中国市场的风险敞口很小,中国客户占比低于5%,且目前未受相关禁令影响,即使受影响,实质性也很低[22] * 对于新处理器架构(如ARM)或新型内存(如HBM)的竞争威胁,公司认为由于其处于接口层,基本不受影响,甚至可能成为催化剂[31] * 专利授权业务不仅提供现金流和长期视角(洞察未来10年的基础技术),其三大主要被授权方(内存供应商)也已转变为产品业务的前三大客户,改变了合作关系[23][24][25]
从芯粒到机柜:聊聊大模型浪潮下的开放互连
半导体行业观察· 2025-12-02 01:37
文章核心观点 - AI大模型发展重心从预训练扩展转向推理时扩展,对基础设施的低延迟和高吞吐提出新要求[8] - 面对NVIDIA私有互连技术的垄断,行业需要拥抱开放互连标准以实现供应链健壮性和技术优化空间[9][10] - 开放互连技术体系UCIe/CXL/UAL/UEC覆盖从芯粒互连到Scale-out网络的全链条,是构建AI基础设施核心竞争力的关键[10] - 阿里云作为中国大陆唯一代表,深度参与UCIe、CXL、UAL等核心标准制定,在开放互连生态中占据有利地位[2][4] 开放互连标准发展背景 - 2019年3月CXL联盟成立,旨在解决异构XPU编程和内存扩展挑战[4] - 2022年3月UCIe联盟成立,致力于建立开放的Die-to-Die互连标准[4] - 2023年7月UEC联盟成立,目标为AI和HPC重建高效开放的以太网[4] - 2024年10月UAL联盟成立,应对模型尺寸和推理上下文增长对Scale-up网络的需求[4] Scaling Law三个阶段 - 预训练扩展:通过增加模型参数、训练数据量和计算资源提升基础模型精度[5] - 后训练扩展:通过微调、RLHF和蒸馏等手段使模型输出更专业和符合人类习惯[5] - 推理时扩展:通过生成更多辅助推理的token提升输出质量,如CoT Prompting和Sampling and Voting[5][6] - 当前扩展重心已转移到推理时扩展,对延时指标和吞吐指标有刚性需求[8] UCIe技术分析 - 基于芯粒的设计通过提升良率、制程节点优化、芯粒复用和市场化四个层面解决成本问题[11][15] - 芯粒设计突破光罩尺寸限制,NVIDIA Blackwell采用2 Die合封,Rubin Ultra采用4 Die合封[14][17] - UCIe物理层目标延时<2ns,先进封装单模组带宽达256GB/s[18][19][23] - UCIe-3D采用混合键合技术,bump pitch仅9μm,远低于2D/2.5D封装的25-55μm[25] - UCIe支持光电共封,为AI集群互连提供低成本、高灵活度解决方案[26][27] CXL技术特性与应用 - CXL 3.2支持64GT/s链路速率,256字节Flit格式,多级交换和全局集成内存等特性[33] - 内存扩展和池化为LLM推理系统提供分层缓存体系,缓解KV Cache存储压力[34][40] - 全局集成内存实现Host间一致性内存访问,为AI基础设施提供内存共享能力[34][39] - CXL在RAG向量数据库中可通过内存池化创建常驻内存数据库,或利用存内计算提升查询效率[40] UAL协议架构 - UAL采用四层协议栈,物理层复用IEEE802.3dj以太网PHY,实现200Gb/s传输速率[43][45] - 支持内存语义操作,避免RDMA编程模式的Doorbell/Interrupt延时开销[44] - 通过Credit-based流控和链路层重传实现无损传输,减少长尾延时[54] - 支持最多1024个节点的超节点Scale-up网络,采用PGAS编程模型实现全局内存空间[50] UEC协议创新 - 短时连接动态创建Packet Delivery Context,解决RDMA网络规模扩展性问题[59] - 多路径和包喷洒技术使同一流中的数据包可走不同路径,提升带宽利用率[62] - 支持乱序包交付与顺序消息交付,提供四种传输模式应对不同场景需求[63] - 拥塞控制综合ECN标识和RTT测量,结合接收端信用控制实现高效管理[64] - 安全子层通过安全域共享密钥和重放攻击防护机制保障数据传输安全[67] Scale-up域边界分析 - 模型参数增长放缓,但KV Cache内存需求持续增加,对内存容量提出更高要求[70][74] - NVIDIA Rubin Ultra显存容量预计达约1TB,算力达100 PFLOPS@FP4[75] - 华为昇腾960算力为4 PFLOPS@FP4,显存288GB,与NVIDIA存在显著差距[75] - 中美AI集群形态差异:美式集群Scale-up域锚定单机柜,中式集群需多机柜扩展[76] - Scale-up集群规模将经历扩大再收缩过程,最终回归单机柜超节点形态[76] CXL未来发展前景 - CXL 3.1引入GIM概念,实现Host间一致性内存访问,功能上接近UAL[77] - PCIe Gen8速率将达256GT/s,但需等到2028年才可能集成到GPU[78] - CXL提供另一种集群组织形态:GPU通过CXL Switch连接CPU,实现统一内存空间[78] - 非NVIDIA GPU集成CXL可实现与Host的UMA,提升带宽利用率[78] - CXL生态系统成熟后,可能成为AI基础设施的重要技术路径[78]
广发证券:MRDIMM和CXL增加AI服务器内存 建议关注产业链核心受益标的
智通财经· 2025-10-29 02:29
文章核心观点 - MRDIMM与CXL技术通过“近端高带宽+远端大容量”的分层协同模式 以更低总体拥有成本增加AI服务器内存供给与弹性扩展 特别适用于高并发、超长上下文的AI推理负载 [1] AI服务器内存架构的核心难题 - 当前AI服务器内存架构面临三大难题:HBM成本高且容量受限 不同应用负载的内存需求差异明显需避免配置不当 CPU插槽的内存可扩展容量存在瓶颈 [1] MRDIMM技术的性能与优势 - MRDIMM Gen2最高支持12800MT/s速率 在AI负载下相对DDR5 RDIMM带宽可提升2.3倍 显著降低KVCache读写时延以支撑高吞吐推理 [2] - MRDIMM单条支持64/96/128GB容量 支持更长上下文与更多并行会话 其高带宽与大容量适配CPU侧KVCache卸载 [2] - Intel Xeon 6 "Granite Rapids"搭载12通道内存控制器 可充分释放MRDIMM带宽潜力 有效缓解GPU显存压力并利于多会话调度 [2] CXL技术的性能与优势 - CXL 3.1在CPU/GPU/加速器间实现内存池化 可将部分KVCache从GPU显存弹性卸载到CXL设备 在不增加GPU成本前提下将有效容量扩大至TB级 [3] - CXL访问时延可逼近CPU DRAM 使置于CXL的KVCache在高负载下能维持接近实时的解码性能 [3] - 在字节跳动LLM服务栈中 将KVCache卸载至CXL可使batch size提高30% GPU需求降低87% prefill阶段GPU利用率提升7.5倍 [3] - CXL支持冷热数据分层管理 以DeepSeek-1.73B量化模型为例 单路CPU加CXL扩展方案较双路CPU方案在吞吐基本持平时处理器数量更少 形成明显总体拥有成本优势 [3]
帝科股份(300842) - 2025年10月15日投资者关系活动记录表
2025-10-16 01:20
公司业务与产能 - 江苏晶凯专注于存储芯片封测及存储晶圆测试服务,主要客户包括因梦控股和成都电科星拓等 [2] - 江苏晶凯当前封装产能约每月3百万颗(3KK),测试产能约每月2.5百万颗(2.5KK),并计划将测试产能扩产至每月4百万颗(4KK) [2] 产业链优势与竞争地位 - 收购江苏晶凯后,公司存储业务实现DRAM芯片应用性开发设计、晶圆测试分选、存储封装测试一体化布局,成为行业内少数具备此能力并实现规模量产的企业 [2] - 一体化布局在新型晶圆导入、成本品质控制及客户需求响应方面具备明显竞争优势,能有效提升毛利水平 [2] 财务表现与毛利率 - 在稼动率满产状态下,江苏晶凯的DRAM芯片封装业务毛利率平均在20%-30%之间 [3] - 江苏晶凯的测试业务毛利率约50%,略高于同行业公司水平 [3] 技术特色 - 公司DRAM晶圆测试分选为特色技术工艺,可实现高效、精准测试,并具备快速测试方案开发能力 [3] - 测试分选工艺基于终端应用需求的定制化测试方案,通过全自动化测试设备对DRAM存储晶圆进行测试后分级分类,属于封装前制程 [3] 未来发展规划与市场拓展 - 存储行业前景良好,市场价格持续上涨,公司存储业务板块收入预计将保持较好增长 [3] - 市场拓展策略包括利用一体化成本品质优势快速拓展消费电子市场,以及加强与主流SOC芯片设计企业合作协同拓展 [3] - 因梦控股正加快AI算力及端侧AI相关产品量产开发储备,包括SOC-DRAM合封产品、CXL及低功率高位宽存储芯片(LPW DRAM/Mobile-HBM)等 [3]
Astera Labs Showcases Rack-Scale AI Ecosystem Momentum at OCP Global Summit
Globenewswire· 2025-10-13 13:00
行业趋势:AI基础设施向机架级架构演进 - AI基础设施格局正从服务器级架构快速演变为作为统一计算平台运行的机架级系统[2] - 行业向AI Infrastructure 2.0发展,整个机架作为统一计算平台运行,而非独立服务器的集合[1] - 超大规模企业正投资数十亿(billions)美元建设下一代基础设施,开放标准对提供集成多样化加速器、互连、机架设计和管理工具所需的灵活性至关重要[2] 公司战略:通过开放标准和生态合作推动创新 - 公司实现AI Infrastructure 2.0的方法是协作、标准化和加速,通过生态合作更快地推动创新[2] - 公司在2025年OCP全球峰会上通过现场演示和技术会议展示对PCIe、UALink、以太网、CXL和OpenBMC标准解决方案的广泛支持[1] - 公司提供基于开放标准的智能连接平台,通过COSMOS软件套件整合CXL、以太网、PCIe和UALink技术,将多样化组件统一为连贯的系统[13] 生态合作与技术支持领域 - **GPU和CPU互连**:与AMD合作确保客户能够在开放机架架构中大规模部署AMD Instinct GPU,提供性能、能效和灵活性[3] - **高速线缆与连接器**:与Amphenol合作提供从板级到机架级部署的可靠高速线缆解决方案,确保供应链多样性[3];与Molex合作优化支持PCIe 6和UALink 1.0(200G)的线缆和连接器解决方案[9] - **制造与集成**:与Ingrasys合作利用其全球AI服务器制造和机架级集成能力,加速下一代AI计算解决方案的上市时间[7];与Quanta Computer合作确保客户获得经过验证、满足现代AI工作负载要求的生产就绪解决方案[10] - **管理与监控**:与ASPEED合作提供基于标准的管理和监控堆栈,超大规模客户可将其无缝集成到监控系统中,并跨集群编排层扩展[4];与Insyde Software合作将OpenBMC管理框架扩展到下一代连接结构[8] - **信号完整性与模拟设计**:与Cadence Design Systems合作为工程师提供模拟仿真和验证工具,确保在PCIe 6速度下跨机架的高速连接信号完整性[6] - **光学连接与背板解决方案**:与Eoptolink合作将其连接智能与先进光学收发器集成,为现代AI数据中心架构所需的远距离提供高带宽解决方案[7];与TE Connectivity合作将Aries重定时器技术直接嵌入机架基础设施,提供集成背板解决方案[11]
腾950引领国产超节点新时代,英伟达入股英特尔有望扩大NVLINK版图
山西证券· 2025-09-29 08:50
行业投资评级 - 领先大市-A(维持) [1] 核心观点 - 华为昇腾950引领国产超节点技术突破 互联带宽达2TB/s超越英伟达B200 采用铜光混合架构和开放灵衢总线生态 [2][3][11][12] - 英伟达斥资50亿美元入股英特尔4%股份 双方合作开发数据中心和AIPC产品 推动NVLINK与CXL技术融合 [4][13][14] - 国产算力产业化进程加速 2026年芯片出货有望放量 超节点集群设计成为行业标杆 [2][11] 行业动向 - 华为发布昇腾AI芯片路线图:910C已出货300套(算力800T FP16/HBM 128GB/带宽784GB/s) 950PR将于2026Q1推出(算力1P FP8/2P FP4/HBM 128GB/带宽2TB/s) 950DT于2026Q4推出(HBM升级144GB/带宽4TB/s) 960/970将于2027-2028年推出且算力翻倍 [2][11] - 华为推出超节点产品Atlas 950 SuperPoD(8192卡)和Atlas 960 SuperPoD(15488卡) 以及全球首款通算超节点TaiShan950 SuperPoD [2][11] - 英伟达与英特尔合作:数据中心领域开发定制x86 CPU PC领域推出集成RTX GPU的x86芯片 [4][13][14] 技术进展 - 昇腾950采用UB 4D FullMesh混合组网架构:机柜内通过PCB/铜缆传输 机柜间通过铜缆+光模块扩展 [3][12] - 灵衢总线技术规范开放 推动UB生态从NPU向CPU扩展 加速国产芯片超节点建设 [3][12] - NVLINK有望引入x86生态系统 PCIE加速迈向7.0时代 催化高速网卡和光模块需求 [14] 市场表现 - 本周(2025.09.22-09.26)申万通信指数下跌0.28% 跑输主要指数(科创板+6.47% 创业板+1.96% 沪深300+1.07%) [6][15] - 细分板块涨幅前三:液冷(+7.16%) 物联网(+5.95%) IDC(+1.54%) [6][15] - 涨幅前五个股:剑桥科技(+18.77%) 浪潮信息(+11.86%) 中天科技(+9.08%) 数据港(+8.28%) 英维克(+7.20%) [6][29] - 跌幅前五个股:博创科技(-14.77%) 长飞光纤(-14.61%) 意华股份(-8.95%) 源杰科技(-8.04%) 瑞可达(-6.05%) [6][29] 建议关注标的 - 国产算力:寒武纪 海光信息 沐曦股份(IPO申报) 摩尔线程(IPO申报) [5][15] - x86生态:海光信息 澜起科技 兆芯集成(IPO申报) [5][15] - 国产超节点:中兴通讯 紫光股份 盛科通信 立讯精密 汇聚科技 [5][15] - 昇腾算力:烽火通信 华丰科技 华工科技 飞荣达 意华股份 [5][15]
PCIe,狂飙20年
半导体行业观察· 2025-08-10 01:52
PCIe技术发展历程 - PCIe 8.0标准发布,数据传输速率达256GT/s,实现带宽翻倍,成为技术发展里程碑[1] - PCIe技术用20余年重构计算机数据传输格局,从串行总线革命到每秒256GT速度突破[1] - PCIe最初由Intel在2001年提出,旨在替代旧的PCI、PCI-X和AGP总线标准[3] - PCIe通过串行总线架构实现对传统PCI并行总线的全面革新[9] - PCIe技术历经8代迭代,从1.0的2.5GT/s到8.0的256GT/s,每代实现速率翻倍[13][43] PCIe核心技术特性 - 串行通信机制:以串行传输替代并行架构,减少信号干扰,提升传输效率[11] - 点对点连接设计:每个外设通过独立链路直接对接根复合体,消除总线竞争瓶颈[11] - 可扩展带宽能力:支持通过通道数量线性扩展带宽,匹配不同设备需求[11] - 采用PAM4调制技术替代传统NRZ编码,实现带宽翻倍[23] - 引入流量控制单元(FLIT)编码,提升传输效率[27] PCIe各代技术演进 - PCIe 1.0:2003年推出,单通道2.5GT/s,带宽250MB/s[14] - PCIe 2.0:2007年发布,速率翻倍至5GT/s,带宽500MB/s[15][17] - PCIe 3.0:2010年发布,速率8GT/s,带宽约1GB/s[17][18] - PCIe 4.0:2017年问世,速率16GT/s,带宽约2GB/s[19] - PCIe 5.0:2019年发布,速率32GT/s,带宽约4GB/s[22] - PCIe 6.0:2022年发布,速率64GT/s,带宽8GB/s[23] - PCIe 7.0:2024年公布,速率128GT/s,带宽16GB/s[27][31] - PCIe 8.0:2025年开发中,速率256GT/s,带宽32GB/s[38][42] PCIe市场应用 - 云计算领域占据最大份额(超过50%),主导数据中心和服务器应用[46] - 汽车行业采用率自2020年起稳步上升,满足AI和ADAS需求[46] - 移动设备市场份额稳定在10%-20%,用于智能设备和高效互联[46] - 消费类电子市场份额逐步扩大,应用于家庭设备和个人电脑[46] - 工业领域采用率缓慢增长,重要性随工业自动化和IoT发展日益凸显[46] PCIe技术挑战与竞争 - 面临NVLink、Infinity Fabric等专用互联技术的挑战[55] - UALink联盟成立,开发开放行业标准应对AI数据中心需求[56] - CXL协议推出,实现与PCIe兼容的同时满足异构计算需求[63] - 光互连技术有望突破电信号传输物理瓶颈[37][71] - 速率持续翻倍面临信号质量、走线设计和封装材料等挑战[43]
Astera Labs: Rapid Growth And Newfound Profitability
Seeking Alpha· 2025-07-10 18:58
公司业务 - Astera Labs是一家网络基础设施公司 专注于销售基于以太网 CXL和PCIe的产品 这些产品旨在提升数据中心内不同芯片之间的连接性能 主要服务于人工智能和云计算领域 [1] 作者背景 - 作者Liam Litong Tian是来自加州圣地亚哥的年轻投资者 目前就读于康奈尔大学 过去几年涉足投资领域 对房地产 专业服务 新兴技术和工业行业有浓厚兴趣 并专注于撰写这些领域的公司分析 [1] - 作者曾为Touchstone Research团队撰写过包括万豪 Dream Finders Homes Powell Industries和Toll Brothers在内的多篇公司分析文章 擅长深入研究公司运营和商业模式 尤其关注知名度较低的企业 [1]