Workflow
CXL
icon
搜索文档
Astera Labs (NasdaqGS:ALAB) FY Conference Transcript
2025-12-11 18:17
纪要涉及的行业或公司 * 公司为Astera Labs (NasdaqGS: ALAB),一家专注于解决AI系统连接性挑战的半导体公司 [1] * 行业涉及人工智能(AI)基础设施、数据中心、半导体(特别是连接性芯片,如重定时器、交换机、CXL产品)[3][6][10] 核心观点和论据 **1 对AI投资周期和公司角色的看法** * 公司认为AI投资周期仍处于早期阶段,需要大量计算能力来完善模型 [4][5] * 随着计算需求增长,连接性(connectivity)成为提升系统效率的关键瓶颈和更大问题,公司业务正是解决GPU/XPU/CPU之间的互连挑战 [6] * 公司未看到业务中有任何AI放缓的迹象,客户订单未显示放缓信号 [6] **2 内存瓶颈与CXL解决方案** * 随着AI模型参数增长(从IPO时讨论的约1万亿增至目前最大的3万亿以上),HBM内存容量不足成为瓶颈 [11] * CXL(Compute Express Link)技术可通过KV缓存卸载(KV cache offloads)和检查点(checkpointing)来解决AI推理和工作负载中的内存瓶颈 [11] * 公司CXL产品的首个部署将用于通用计算,已与微软合作,在数据中心私有环境中加速SAP HANA的数据库工作负载,通过提供更大内存将整个数据库置于内存中带来性能优势 [12] * CXL在AI中的角色将是作为HBM之后的第二层内存,其额外延迟可在AI工作负载中被隐藏 [14] * 预计CXL业务将在2026年下半年开始上量 [13] **3 Taurus平台(有线连接解决方案)进展** * Taurus是公司第四季度(Q4)增长的最大驱动力 [20] * 公司正在向领先的超大规模客户量产400千兆(400 gig)解决方案,并正在向800千兆(800 gig)方案推进,客户范围扩大 [20] * 800千兆解决方案预计将于明年(2026年)初开始部署,但更实质性的上量将在下半年,并叠加在持续增长的400千兆业务之上 [20] * 预计400千兆业务在2026年将继续增长,并比800千兆业务规模更大,但800千兆业务将在年底开始发挥作用 [21] **4 Aries平台(重定时器与交换机)业务动态** * 公司上市时(2024年3月),重定时器业务主要基于英伟达(NVIDIA)Hopper平台 [23] * 2024年,XPU(超大规模客户自研ASIC)的兴起推动了Aries业务的巨大增长,这些XPU用于横向扩展(scale out)和纵向扩展(scale up) [25] * 在纵向扩展中,公司通过AEC PCIe获得更高平均售价(ASP)的FCM模型 [25] * 从Hopper向Blackwell平台的过渡中,公司收入更多来自交换机而非重定时器 [25] * 展望2026年,公司预计将从第5代(Gen 5)重定时器向第6代(Gen 6)过渡,这将带来新的增长动力,同时Gen 5在超大规模客户部署中仍有大量增长 [25][26] * 目前仅有一家商用GPU供应商提供Gen 6产品,公司正与其大幅上量,预计今年晚些时候将有其他支持Gen 6的GPU/XPU部署 [30][32] **5 Scorpio X交换机(PCIe纵向扩展)与UALink机遇** * 公司正与超过10家客户就用于纵向扩展的Scorpio X系列(基于PCI Express或类似协议)进行合作,合作阶段从已确认设计到即将上量 [36][38] * Scorpio X系列本季度开始初步量产,明年上半年上量,下半年更显著增长 [39] * 高通(Qualcomm)近期公开表示支持PCI Express作为纵向扩展协议,因其是基于内存语义的负载存储协议,与NVLink和未来的UALink类似 [39][40] * 公司认为许多使用PCIe的客户将自然过渡到UALink,因为软件栈已优化,且UALink是更快版本的PCIe [40][42] * 公司在Scorpio产品上的客户参与度是30年行业经验中最高的 [42] * 预计PCIe Scorpio X产品组合将在2026年至2027年持续上量,新协议(如NVLink Fusion或UALink)在2027年后才可能成为主导 [48] **6 对NVLink Fusion及Trainium 4公告的看法** * 公司认为NVLink Fusion的发布为超大规模客户提供了更多选择,AI动态每三个月变化一次,需要灵活性 [49] * 公司强调,随着每一代GPU和XPU的演进,其单机价值(content)都在增长 [50] * Trainium 4公告提到两种部署:1)原生机架(使用NVLink或UALink直接连接交换机),这对UALink是积极进展;2)使用NVLink Fusion的混合机架 [50] * 在NVLink Fusion方案中,需要一个复杂组件进行协议转换、管理数据流和安全性,该组件需附着于每个XPU,而交换机方案通常一个交换机连接多个XPU [51][54] * 公司对此次公告感到兴奋,并认为这体现了超大规模客户和英伟达对公司开发此关键组件能力的信任 [54] * 关于XPU与CPU之间的连接,内容取决于系统架构(如距离远近),在Grace Blackwell平台中,重定时器内容已消失,但若距离较远仍需信号调节组件 [60][62] **7 UALink交换机战略与竞争格局** * 目前市场上尚无UALink交换机,仍处于早期阶段和绿地部署 [63][65] * 公司策略是在产品就绪并能在展会上演示时才会讨论 [65] * 公司通过PCIe纵向扩展拓扑积累了丰富经验,包括确保复杂机架可靠高效运行的Cosmos软件和遥测能力,这些将延续到UALink产品中 [66] * 公司对执行UALink交换机计划非常有信心,预计2026年下半年将出现用于管道清理的样品,2027年完成全面认证,之后在产品中上量 [66][67] * 公司认为未来将是一个多种标准共存的分化世界:NVLink生态、PCIe/UALink生态、以及基于以太网RDMA的生态将长期并存 [73][74][76] * 对于以太网交换机市场,公司持开放但谨慎态度,目前专注于PCIe向UALink过渡的巨大机会,若客户要求或情况变化会考虑进入,但需面对强大的现有竞争对手 [80][82][83] **8 光学互连(Optics)战略与X Scale收购** * 光学互连是公司的巨大机遇,可将铜链路的收入显著提升 [87] * 随着系统更复杂、数据速率提升,纵向扩展域将从单个机架扩展到多个机架,届时必须采用光学互连,预计拐点可能在2028-2029年 [88] * 在全面部署前,2027年将有一些管道清理部署 [88] * 收购X Scale是为了获得光学连接器的关键技术和量产能力,这是将光子集成电路(PIC)耦合到光纤并可靠扩展的瓶颈环节 [91] * 公司具备自研电芯片(EIC)和光子芯片(PIC)的能力,但也愿意根据客户需求与其他光子技术供应商合作 [89][90][94] **9 财务与资本配置** * 公司的长期毛利率目标模型为70%,并相信随着产品组合拓宽和市场扩大,能够实现40%的营业利润率 [95] * 公司目前盈利能力很强,正在积累大量现金 [95] * 鉴于公司上市仅一年,处于早期阶段,现金将优先用于战略性并购或其他战略举措 [96] * 随着公司成熟并持续产生正向现金流记录,将寻求回报投资者的方式 [96] 其他重要内容 * 公司产品线包括:用于互连的重定时器(retimers)和交换机(switches)(Aries平台),有线连接解决方案(Taurus平台),用于内存扩展的CXL产品,以及用于纵向扩展的PCIe/UALink交换机(Scorpio X系列) [7][10][18][33][45] * 公司强调其核心是解决连接性挑战,提升AI基础设施效率 [10] * 公司提及与超大规模客户(hyperscalers)的紧密合作与互动 [25][42][50] * 公司提及行业协议演进:从PCIe Gen5向Gen6过渡,以及未来向UALink的演进 [25][40]
Rambus (NasdaqGS:RMBS) FY Conference Transcript
2025-12-10 14:32
公司概况与业务构成 * 公司是Rambus,拥有超过35年高性能内存子系统经验,是领先的IC和硅IP解决方案供应商,专注于解决数据中心内内存与处理器之间的瓶颈[3] * 公司业务分为三部分:专利授权业务、硅IP业务和芯片产品业务[4] * 专利授权业务年收入约2.1亿美元,毛利率100%,非常稳定,是公司的现金牛,但长期不预期增长[4] * 硅IP业务去年收入1.2亿美元,年增长率10%-15%[5] * 芯片产品业务采用无晶圆厂半导体模式,今年(按Q4指引中值)收入约3.4亿美元,较去年增长40%,是高速增长业务,由数据中心需求驱动[5] 市场机遇与产品战略 * 核心产品是位于内存模组上的接口芯片,其总目标市场规模约为每年8亿美元[6] * 从DDR4向DDR5过渡带来了额外的配套芯片机会,包括电源管理芯片、SPD Hub控制器和两个温度传感器,这部分TAM增加约6亿美元,使总TAM从8亿美元增至14亿美元[6][8][9] * 技术从数据中心扩展到高端客户端系统(如高端PC),增加约2亿美元TAM[7] * 新技术MRDIMM预计增加约6亿美元TAM[7] * MRDIMM技术可将单个模组的内存容量和访问带宽都翻倍,且无需改变服务器架构[12][13] * 对于公司而言,MRDIMM将使单模组内容价值提升至当前标准DDR5 DIMM的四倍,原因是接口芯片和电源管理芯片更复杂昂贵,并需额外增加10个用于数据复用的芯片[14][15] * MRDIMM的推广时间将与英特尔和AMD的下一代平台(Diamond Rapids和Venice)绑定,预计在2026年底至2027年初开始上量[15] 人工智能与服务器市场影响 * AI对业务总体利好,AI服务器并未蚕食传统服务器,因为AI服务器机箱内同时包含传统服务器部分(DDR内存和x86处理器)用于为GPU和HBM缓存和准备数据[10] * AI训练是技术采用的催化剂,而AI推理将成为未来的增长驱动力,因为推理更倾向于在传统服务器上运行,这驱动了对传统服务器的需求[10][11] 硅IP业务战略与竞争 * 硅IP业务高度聚焦于两个领域:安全和高性能接口[18][19] * 安全IP业务始于2011年,公司可能是独立公司中最大的安全硅IP提供商[19] * 高性能接口IP包括HBM控制器、GDDR控制器、PCIe控制器等,用于新一代服务器和AI服务器[20] * 该业务总收入约1.2亿美元,安全与高性能接口各占一半,年增长10%-15%[20] * 增长驱动力是数据中心的快速演进以及对更高速度和数据安全的需求[21] * 在安全领域,公司主要提供基于硬件的安全方案,并已开发出可应对未来量子计算威胁的量子安全核心[34][35] * 公司承认存在快速跟随者和内部自研方案的竞争,但对自身在安全硅IP市场的领先地位保持信心[34][36] CXL技术布局 * 公司在CXL领域有两种方式:作为硅IP业务的一部分提供CXL控制器IP;曾开发CXL产品但未商业化[16] * 认为CXL市场非常碎片化,主要用例是内存扩展,而MRDIMM是实现此目标的更优方案,因其由行业在产品层面定义且可利用现有基础设施[17] * 目前CXL产品仅作为硅IP业务的一部分,没有独立的CXL产品[17] 财务模型与资本配置 * 各业务毛利率:专利授权100%,硅IP约95%,芯片产品61%-63%[28] * 尽管产品业务(毛利率较低)占比将提升,但公司预计能维持约40%-45%的运营利润率[28] * 过去12个月产生了3亿美元的运营现金流[28] * 资本配置优先顺序:投资有机增长、寻求收购机会、向投资者返还现金[29] * 有机增长需求迫切,例如在DDR5时代需每年开发新接口芯片,速度快于DDR4时代的每两年一次[29] * 目标是将40%-50%的自由现金流返还给投资者,过去几年一直按此执行[30] 风险与市场关注 * 对中国市场的风险敞口很小,中国客户占比低于5%,且目前未受相关禁令影响,即使受影响,实质性也很低[22] * 对于新处理器架构(如ARM)或新型内存(如HBM)的竞争威胁,公司认为由于其处于接口层,基本不受影响,甚至可能成为催化剂[31] * 专利授权业务不仅提供现金流和长期视角(洞察未来10年的基础技术),其三大主要被授权方(内存供应商)也已转变为产品业务的前三大客户,改变了合作关系[23][24][25]
从芯粒到机柜:聊聊大模型浪潮下的开放互连
半导体行业观察· 2025-12-02 01:37
文章核心观点 - AI大模型发展重心从预训练扩展转向推理时扩展,对基础设施的低延迟和高吞吐提出新要求[8] - 面对NVIDIA私有互连技术的垄断,行业需要拥抱开放互连标准以实现供应链健壮性和技术优化空间[9][10] - 开放互连技术体系UCIe/CXL/UAL/UEC覆盖从芯粒互连到Scale-out网络的全链条,是构建AI基础设施核心竞争力的关键[10] - 阿里云作为中国大陆唯一代表,深度参与UCIe、CXL、UAL等核心标准制定,在开放互连生态中占据有利地位[2][4] 开放互连标准发展背景 - 2019年3月CXL联盟成立,旨在解决异构XPU编程和内存扩展挑战[4] - 2022年3月UCIe联盟成立,致力于建立开放的Die-to-Die互连标准[4] - 2023年7月UEC联盟成立,目标为AI和HPC重建高效开放的以太网[4] - 2024年10月UAL联盟成立,应对模型尺寸和推理上下文增长对Scale-up网络的需求[4] Scaling Law三个阶段 - 预训练扩展:通过增加模型参数、训练数据量和计算资源提升基础模型精度[5] - 后训练扩展:通过微调、RLHF和蒸馏等手段使模型输出更专业和符合人类习惯[5] - 推理时扩展:通过生成更多辅助推理的token提升输出质量,如CoT Prompting和Sampling and Voting[5][6] - 当前扩展重心已转移到推理时扩展,对延时指标和吞吐指标有刚性需求[8] UCIe技术分析 - 基于芯粒的设计通过提升良率、制程节点优化、芯粒复用和市场化四个层面解决成本问题[11][15] - 芯粒设计突破光罩尺寸限制,NVIDIA Blackwell采用2 Die合封,Rubin Ultra采用4 Die合封[14][17] - UCIe物理层目标延时<2ns,先进封装单模组带宽达256GB/s[18][19][23] - UCIe-3D采用混合键合技术,bump pitch仅9μm,远低于2D/2.5D封装的25-55μm[25] - UCIe支持光电共封,为AI集群互连提供低成本、高灵活度解决方案[26][27] CXL技术特性与应用 - CXL 3.2支持64GT/s链路速率,256字节Flit格式,多级交换和全局集成内存等特性[33] - 内存扩展和池化为LLM推理系统提供分层缓存体系,缓解KV Cache存储压力[34][40] - 全局集成内存实现Host间一致性内存访问,为AI基础设施提供内存共享能力[34][39] - CXL在RAG向量数据库中可通过内存池化创建常驻内存数据库,或利用存内计算提升查询效率[40] UAL协议架构 - UAL采用四层协议栈,物理层复用IEEE802.3dj以太网PHY,实现200Gb/s传输速率[43][45] - 支持内存语义操作,避免RDMA编程模式的Doorbell/Interrupt延时开销[44] - 通过Credit-based流控和链路层重传实现无损传输,减少长尾延时[54] - 支持最多1024个节点的超节点Scale-up网络,采用PGAS编程模型实现全局内存空间[50] UEC协议创新 - 短时连接动态创建Packet Delivery Context,解决RDMA网络规模扩展性问题[59] - 多路径和包喷洒技术使同一流中的数据包可走不同路径,提升带宽利用率[62] - 支持乱序包交付与顺序消息交付,提供四种传输模式应对不同场景需求[63] - 拥塞控制综合ECN标识和RTT测量,结合接收端信用控制实现高效管理[64] - 安全子层通过安全域共享密钥和重放攻击防护机制保障数据传输安全[67] Scale-up域边界分析 - 模型参数增长放缓,但KV Cache内存需求持续增加,对内存容量提出更高要求[70][74] - NVIDIA Rubin Ultra显存容量预计达约1TB,算力达100 PFLOPS@FP4[75] - 华为昇腾960算力为4 PFLOPS@FP4,显存288GB,与NVIDIA存在显著差距[75] - 中美AI集群形态差异:美式集群Scale-up域锚定单机柜,中式集群需多机柜扩展[76] - Scale-up集群规模将经历扩大再收缩过程,最终回归单机柜超节点形态[76] CXL未来发展前景 - CXL 3.1引入GIM概念,实现Host间一致性内存访问,功能上接近UAL[77] - PCIe Gen8速率将达256GT/s,但需等到2028年才可能集成到GPU[78] - CXL提供另一种集群组织形态:GPU通过CXL Switch连接CPU,实现统一内存空间[78] - 非NVIDIA GPU集成CXL可实现与Host的UMA,提升带宽利用率[78] - CXL生态系统成熟后,可能成为AI基础设施的重要技术路径[78]
广发证券:MRDIMM和CXL增加AI服务器内存 建议关注产业链核心受益标的
智通财经· 2025-10-29 02:29
文章核心观点 - MRDIMM与CXL技术通过“近端高带宽+远端大容量”的分层协同模式 以更低总体拥有成本增加AI服务器内存供给与弹性扩展 特别适用于高并发、超长上下文的AI推理负载 [1] AI服务器内存架构的核心难题 - 当前AI服务器内存架构面临三大难题:HBM成本高且容量受限 不同应用负载的内存需求差异明显需避免配置不当 CPU插槽的内存可扩展容量存在瓶颈 [1] MRDIMM技术的性能与优势 - MRDIMM Gen2最高支持12800MT/s速率 在AI负载下相对DDR5 RDIMM带宽可提升2.3倍 显著降低KVCache读写时延以支撑高吞吐推理 [2] - MRDIMM单条支持64/96/128GB容量 支持更长上下文与更多并行会话 其高带宽与大容量适配CPU侧KVCache卸载 [2] - Intel Xeon 6 "Granite Rapids"搭载12通道内存控制器 可充分释放MRDIMM带宽潜力 有效缓解GPU显存压力并利于多会话调度 [2] CXL技术的性能与优势 - CXL 3.1在CPU/GPU/加速器间实现内存池化 可将部分KVCache从GPU显存弹性卸载到CXL设备 在不增加GPU成本前提下将有效容量扩大至TB级 [3] - CXL访问时延可逼近CPU DRAM 使置于CXL的KVCache在高负载下能维持接近实时的解码性能 [3] - 在字节跳动LLM服务栈中 将KVCache卸载至CXL可使batch size提高30% GPU需求降低87% prefill阶段GPU利用率提升7.5倍 [3] - CXL支持冷热数据分层管理 以DeepSeek-1.73B量化模型为例 单路CPU加CXL扩展方案较双路CPU方案在吞吐基本持平时处理器数量更少 形成明显总体拥有成本优势 [3]
帝科股份(300842) - 2025年10月15日投资者关系活动记录表
2025-10-16 01:20
公司业务与产能 - 江苏晶凯专注于存储芯片封测及存储晶圆测试服务,主要客户包括因梦控股和成都电科星拓等 [2] - 江苏晶凯当前封装产能约每月3百万颗(3KK),测试产能约每月2.5百万颗(2.5KK),并计划将测试产能扩产至每月4百万颗(4KK) [2] 产业链优势与竞争地位 - 收购江苏晶凯后,公司存储业务实现DRAM芯片应用性开发设计、晶圆测试分选、存储封装测试一体化布局,成为行业内少数具备此能力并实现规模量产的企业 [2] - 一体化布局在新型晶圆导入、成本品质控制及客户需求响应方面具备明显竞争优势,能有效提升毛利水平 [2] 财务表现与毛利率 - 在稼动率满产状态下,江苏晶凯的DRAM芯片封装业务毛利率平均在20%-30%之间 [3] - 江苏晶凯的测试业务毛利率约50%,略高于同行业公司水平 [3] 技术特色 - 公司DRAM晶圆测试分选为特色技术工艺,可实现高效、精准测试,并具备快速测试方案开发能力 [3] - 测试分选工艺基于终端应用需求的定制化测试方案,通过全自动化测试设备对DRAM存储晶圆进行测试后分级分类,属于封装前制程 [3] 未来发展规划与市场拓展 - 存储行业前景良好,市场价格持续上涨,公司存储业务板块收入预计将保持较好增长 [3] - 市场拓展策略包括利用一体化成本品质优势快速拓展消费电子市场,以及加强与主流SOC芯片设计企业合作协同拓展 [3] - 因梦控股正加快AI算力及端侧AI相关产品量产开发储备,包括SOC-DRAM合封产品、CXL及低功率高位宽存储芯片(LPW DRAM/Mobile-HBM)等 [3]
Astera Labs Showcases Rack-Scale AI Ecosystem Momentum at OCP Global Summit
Globenewswire· 2025-10-13 13:00
行业趋势:AI基础设施向机架级架构演进 - AI基础设施格局正从服务器级架构快速演变为作为统一计算平台运行的机架级系统[2] - 行业向AI Infrastructure 2.0发展,整个机架作为统一计算平台运行,而非独立服务器的集合[1] - 超大规模企业正投资数十亿(billions)美元建设下一代基础设施,开放标准对提供集成多样化加速器、互连、机架设计和管理工具所需的灵活性至关重要[2] 公司战略:通过开放标准和生态合作推动创新 - 公司实现AI Infrastructure 2.0的方法是协作、标准化和加速,通过生态合作更快地推动创新[2] - 公司在2025年OCP全球峰会上通过现场演示和技术会议展示对PCIe、UALink、以太网、CXL和OpenBMC标准解决方案的广泛支持[1] - 公司提供基于开放标准的智能连接平台,通过COSMOS软件套件整合CXL、以太网、PCIe和UALink技术,将多样化组件统一为连贯的系统[13] 生态合作与技术支持领域 - **GPU和CPU互连**:与AMD合作确保客户能够在开放机架架构中大规模部署AMD Instinct GPU,提供性能、能效和灵活性[3] - **高速线缆与连接器**:与Amphenol合作提供从板级到机架级部署的可靠高速线缆解决方案,确保供应链多样性[3];与Molex合作优化支持PCIe 6和UALink 1.0(200G)的线缆和连接器解决方案[9] - **制造与集成**:与Ingrasys合作利用其全球AI服务器制造和机架级集成能力,加速下一代AI计算解决方案的上市时间[7];与Quanta Computer合作确保客户获得经过验证、满足现代AI工作负载要求的生产就绪解决方案[10] - **管理与监控**:与ASPEED合作提供基于标准的管理和监控堆栈,超大规模客户可将其无缝集成到监控系统中,并跨集群编排层扩展[4];与Insyde Software合作将OpenBMC管理框架扩展到下一代连接结构[8] - **信号完整性与模拟设计**:与Cadence Design Systems合作为工程师提供模拟仿真和验证工具,确保在PCIe 6速度下跨机架的高速连接信号完整性[6] - **光学连接与背板解决方案**:与Eoptolink合作将其连接智能与先进光学收发器集成,为现代AI数据中心架构所需的远距离提供高带宽解决方案[7];与TE Connectivity合作将Aries重定时器技术直接嵌入机架基础设施,提供集成背板解决方案[11]
腾950引领国产超节点新时代,英伟达入股英特尔有望扩大NVLINK版图
山西证券· 2025-09-29 08:50
行业投资评级 - 领先大市-A(维持) [1] 核心观点 - 华为昇腾950引领国产超节点技术突破 互联带宽达2TB/s超越英伟达B200 采用铜光混合架构和开放灵衢总线生态 [2][3][11][12] - 英伟达斥资50亿美元入股英特尔4%股份 双方合作开发数据中心和AIPC产品 推动NVLINK与CXL技术融合 [4][13][14] - 国产算力产业化进程加速 2026年芯片出货有望放量 超节点集群设计成为行业标杆 [2][11] 行业动向 - 华为发布昇腾AI芯片路线图:910C已出货300套(算力800T FP16/HBM 128GB/带宽784GB/s) 950PR将于2026Q1推出(算力1P FP8/2P FP4/HBM 128GB/带宽2TB/s) 950DT于2026Q4推出(HBM升级144GB/带宽4TB/s) 960/970将于2027-2028年推出且算力翻倍 [2][11] - 华为推出超节点产品Atlas 950 SuperPoD(8192卡)和Atlas 960 SuperPoD(15488卡) 以及全球首款通算超节点TaiShan950 SuperPoD [2][11] - 英伟达与英特尔合作:数据中心领域开发定制x86 CPU PC领域推出集成RTX GPU的x86芯片 [4][13][14] 技术进展 - 昇腾950采用UB 4D FullMesh混合组网架构:机柜内通过PCB/铜缆传输 机柜间通过铜缆+光模块扩展 [3][12] - 灵衢总线技术规范开放 推动UB生态从NPU向CPU扩展 加速国产芯片超节点建设 [3][12] - NVLINK有望引入x86生态系统 PCIE加速迈向7.0时代 催化高速网卡和光模块需求 [14] 市场表现 - 本周(2025.09.22-09.26)申万通信指数下跌0.28% 跑输主要指数(科创板+6.47% 创业板+1.96% 沪深300+1.07%) [6][15] - 细分板块涨幅前三:液冷(+7.16%) 物联网(+5.95%) IDC(+1.54%) [6][15] - 涨幅前五个股:剑桥科技(+18.77%) 浪潮信息(+11.86%) 中天科技(+9.08%) 数据港(+8.28%) 英维克(+7.20%) [6][29] - 跌幅前五个股:博创科技(-14.77%) 长飞光纤(-14.61%) 意华股份(-8.95%) 源杰科技(-8.04%) 瑞可达(-6.05%) [6][29] 建议关注标的 - 国产算力:寒武纪 海光信息 沐曦股份(IPO申报) 摩尔线程(IPO申报) [5][15] - x86生态:海光信息 澜起科技 兆芯集成(IPO申报) [5][15] - 国产超节点:中兴通讯 紫光股份 盛科通信 立讯精密 汇聚科技 [5][15] - 昇腾算力:烽火通信 华丰科技 华工科技 飞荣达 意华股份 [5][15]
PCIe,狂飙20年
半导体行业观察· 2025-08-10 01:52
PCIe技术发展历程 - PCIe 8.0标准发布,数据传输速率达256GT/s,实现带宽翻倍,成为技术发展里程碑[1] - PCIe技术用20余年重构计算机数据传输格局,从串行总线革命到每秒256GT速度突破[1] - PCIe最初由Intel在2001年提出,旨在替代旧的PCI、PCI-X和AGP总线标准[3] - PCIe通过串行总线架构实现对传统PCI并行总线的全面革新[9] - PCIe技术历经8代迭代,从1.0的2.5GT/s到8.0的256GT/s,每代实现速率翻倍[13][43] PCIe核心技术特性 - 串行通信机制:以串行传输替代并行架构,减少信号干扰,提升传输效率[11] - 点对点连接设计:每个外设通过独立链路直接对接根复合体,消除总线竞争瓶颈[11] - 可扩展带宽能力:支持通过通道数量线性扩展带宽,匹配不同设备需求[11] - 采用PAM4调制技术替代传统NRZ编码,实现带宽翻倍[23] - 引入流量控制单元(FLIT)编码,提升传输效率[27] PCIe各代技术演进 - PCIe 1.0:2003年推出,单通道2.5GT/s,带宽250MB/s[14] - PCIe 2.0:2007年发布,速率翻倍至5GT/s,带宽500MB/s[15][17] - PCIe 3.0:2010年发布,速率8GT/s,带宽约1GB/s[17][18] - PCIe 4.0:2017年问世,速率16GT/s,带宽约2GB/s[19] - PCIe 5.0:2019年发布,速率32GT/s,带宽约4GB/s[22] - PCIe 6.0:2022年发布,速率64GT/s,带宽8GB/s[23] - PCIe 7.0:2024年公布,速率128GT/s,带宽16GB/s[27][31] - PCIe 8.0:2025年开发中,速率256GT/s,带宽32GB/s[38][42] PCIe市场应用 - 云计算领域占据最大份额(超过50%),主导数据中心和服务器应用[46] - 汽车行业采用率自2020年起稳步上升,满足AI和ADAS需求[46] - 移动设备市场份额稳定在10%-20%,用于智能设备和高效互联[46] - 消费类电子市场份额逐步扩大,应用于家庭设备和个人电脑[46] - 工业领域采用率缓慢增长,重要性随工业自动化和IoT发展日益凸显[46] PCIe技术挑战与竞争 - 面临NVLink、Infinity Fabric等专用互联技术的挑战[55] - UALink联盟成立,开发开放行业标准应对AI数据中心需求[56] - CXL协议推出,实现与PCIe兼容的同时满足异构计算需求[63] - 光互连技术有望突破电信号传输物理瓶颈[37][71] - 速率持续翻倍面临信号质量、走线设计和封装材料等挑战[43]
Astera Labs: Rapid Growth And Newfound Profitability
Seeking Alpha· 2025-07-10 18:58
公司业务 - Astera Labs是一家网络基础设施公司 专注于销售基于以太网 CXL和PCIe的产品 这些产品旨在提升数据中心内不同芯片之间的连接性能 主要服务于人工智能和云计算领域 [1] 作者背景 - 作者Liam Litong Tian是来自加州圣地亚哥的年轻投资者 目前就读于康奈尔大学 过去几年涉足投资领域 对房地产 专业服务 新兴技术和工业行业有浓厚兴趣 并专注于撰写这些领域的公司分析 [1] - 作者曾为Touchstone Research团队撰写过包括万豪 Dream Finders Homes Powell Industries和Toll Brothers在内的多篇公司分析文章 擅长深入研究公司运营和商业模式 尤其关注知名度较低的企业 [1]
电子行业:部分存储涨价,AI和国产化驱动行业增长
2025-06-23 02:09
纪要涉及的行业和公司 - **行业**:电子存储行业,细分包括DRAM、NAND Flash、NOR Flash、企业级SSD等市场 - **公司**:SK海力士、三星、美光、兆易创新、北京君正、江波龙、德明利、百维存储、朗科科技、万润科技、深科技、铜芯科技、华邦电子、紫光国芯、青云科技、亿联网络、亿恒创园、大普微电子、威刚科技、浪潮信息等 [18][24][28] 纪要提到的核心观点和论据 存储市场价格上涨原因 - 存储需求回暖,5月DRAM和NAND价格连续两月上涨,DRAM 5月平均价格上涨27%,4月上涨22%;多家原厂上调DRAM价格、停产DDR3和DDR4推动补货需求;美国对等关税政策和90天暂停期提升囤货热情 [3][4] AI技术对存储市场的影响 - 全球AI驱动的存储市场预计从2024年的287亿美元激增至2034年的2552亿美元,年复合增长率达22.4%;中国存储产业链受益于AI自主可控政策,在利基DRAM、NAND和NOR Flash领域开拓;AI应用使Flash市场容量和需求上升,驱动企业级SSD和NOR Flash市场增长 [1][5] 存储行业国产化前景 - 国产化前景广阔,虽2024年国产DRAM份额低于5%,国产NAND Flash芯片市场份额低于10%,但市场需求与政策驱动下国产化率有望提升;国内上市公司覆盖利基DRAM、NOR Flash、小容量NAND Flash等领域,形成差异化格局 [14] HBM与传统内存对比 - HBM具备更高带宽、更低功耗等优势,为端侧AI提供适配存储方案;预计2025年HBM占全球DRAM总产能比例超10%,产值占比超30%,市场规模从2024年的6979亿增长到2029年的8934亿,年复合增长率约5% [1][8] CXL技术重构算力基础设施 - CXL通过内存池化等特性改善计算系统组件间通讯效率;预计到2028年新增市场规模近160亿美元,中国占50%约80亿美元;与传统方案相比每GB内成本降低约一半 [1][9][10] MRDIMM在AI时代的作用 - MRDIMM借助DDR5规范提升带宽及运算效能,容量大、成本低、扩展方便,可兼容DDR5插槽,在科学计算、大语言模型推理等场景效能提升显著,推动终端市场需求增长,加速AI基础设施建设 [3][11] 分布式存储技术在AI中的应用优势 - 分布式存储技术提供系统可扩展性和容错性,优化AI训练和推理中的数据保护和管理,满足高阶智能驾驶时代数据闭环和传感器多模态数据存储需求 [12] 自动驾驶对边缘侧数据存储的要求 - 自动驾驶对边缘侧数据存储可靠性要求极高,需同步提升存储能力以满足实时性要求,多数数据在边缘侧处理和存储,带动边缘侧存储空间增长,预计边缘存储增长速度是核心存储的两倍,需采用多种数据冗余和保护机制 [13] DRAM市场趋势 - 呈现利基市场格局重塑与3D DRAM走向产业化趋势;中国DRAM市场增速预计高于全球,到2029年规模有望增长至3440亿元;短期内DDR4利基市场行情优于主流存储市场 [3][16] NAND Flash市场状况及预测 - 2024年Q4和2025年Q1受库存和需求影响营收下滑,Q2行情好转营收有望反弹,品牌厂营收环比增长10%左右;Q3企业级SSD需求成价格上涨主要支撑,价格季涨幅有望达10%左右 [21] 云服务供应商AI投资计划 - 多个海外云服务供应商大厂维持或提高2025年资本支出计划,如Meta、谷歌、微软;国内阿里巴巴、腾讯、百度、字节跳动也有相关投入,推动企业级SSD市场增长 [22][23] 中国企业级SSD市场发展情况 - 2024年市场规模为62.5亿美元,同比增长显著;预计到2029年达91亿美元,本土存储模组厂市场份额有望快速提升 [3][24] NOR Flash利基市场发展前景 - 受益于物联网、汽车电子、5G等领域发展及端侧AI扩容,总需求增长;汽车电子和物联网对NOR Flash需求增加,预计到2028年全球市场规模持续增长 [25] AI PC与智能可穿戴设备对Flash存储的影响 - AI PC渗透率增长为Non - Volatile Storage业务带来增量;智能可穿戴设备对NAND Flash容量要求提升;国内企业在NAND Flash行业逐步形成竞争优势 [27] 其他重要但是可能被忽略的内容 - **DDR3和DDR4市场迭代**:DDR3从推出到市场占比达84%用了约7年,DDR4推出后DDR3价格下跌但未完全脱离主流市场,目前DDR3价格因市场景气度和停产计划临近有所提高;短期内DDR4利基市场行情因供需不平衡优于主流市场,兆易创新等有望受益 [17] - **高带宽堆叠DRAM发展趋势**:需求因AI产业崛起增加,2024 - 2029年复合年增长率超25%;技术路径有HBM和堆叠晶圆;SK海力士、三星和美光垄断全球HBM市场,多家厂商投入3D DRAM研发 [18] - **先进半导体设备与产线要求影响**:头部厂商推动DRAM制程进步,未来可能有更多存储厂商与台积电等合作;先进封装方面,行业共识混合键合技术适用于未来多层次HBM [19] - **北京君正3D DRAM研发情况**:3D DRAM处于研发中,进展基本符合预期,可满足客户个性化需求,提供更好带宽 [20] - **值得关注的公司**:包括存储IC设计、互联控制芯片、存储模组、封测、系统解决方案等领域的公司,如兆易创新、蓝思科技、德明利等 [28] - **风险提示**:需关注国际形势变化引发进出口政策调整、下游行业不及预期、AI产业发展不及预期等风险,可能影响价格、行情和盈利水平 [29]