Workflow
Infiniband
icon
搜索文档
看多国产算力 - 人工智能:从大模型产业视角看AIDC行业发展
2025-09-01 02:01
**行业与公司** * 行业聚焦于人工智能数据中心(AIDC)、国产AI芯片、网络通信设备、数据中心供电与散热系统[1] * 涉及公司包括国产AI芯片制造商(如华为、阿里平头哥)、互联网巨头(字节跳动、阿里、腾讯)、网络设备商(中兴通讯、盛科通信、锐捷网络、新华三)、电源与散热企业(中恒电气、北京科士达、夸大数据、麦克米特、阳光电源、台达电子)、IDC运营商(润泽科技、万国数据、世纪互联、光环新网、奥飞数据、数据港)以及传统电力设备商(金盘科技、四方股份、正泰电器)[4][14][19][20][21][22] **核心观点与论据** * 国产AI芯片地位提升 因良率提升已能满足国央企及政府需求 对海外芯片态度更趋强硬 春节前国产大模型发布将缩短中美技术差距[2] * 2025年Q4国内云厂商将出现显著算力缺口 字节跳动单家需求预计达50万张HH20级别算力 阿里资本开支超预期增长超200% 其日均淘客消耗超10万亿次推动算力需求[3][21] * 国产AI芯片产业链投资潜力集中于能获互联网大订单的芯片公司、良率提升的制造企业、阿里平头哥相关业务公司以及散热电源配套企业 后者出海毛利率比国内高至少10个百分点[4][5] * 网络业务增长强劲 英伟达网络业务收入达73亿美元创历史新高 同比增长98% 环比增长46% Spectrum、以太坊、Infiniband及Nvlink表现强劲 机柜级scale up需求剧增[6][7] * GPU通信带宽提升驱动交换设备需求 单卡双向通信带宽已升至900GB 华为384节点方案中单卡需7个接口 设备比例大幅提升[8] * 超级计算互联标准分封闭(如Openlink、华为384)与开源路线 开放式互联标准组织于2025年4月发布首版标准 博通推出SUE协议及TH5芯片优化高速互联[9][10] * IDC行业处底部但前景乐观 2025年上半年中国新增交付机架规模达4.5GW超往年全年峰值 推荐润泽科技(部署384超节点及液冷AIDC)、万国数据、世纪互联及有三季度收入潜力的光环新网、奥飞数据等[13][14] * HVDC供电成主流趋势 供电效率达90%-95%以上 正向正负400伏或800伏方案转变 可节省铜材并支持单机柜功率达800千瓦 Meta和英伟达均提出高压方案[15][16] * 固态变压器(SST)技术受关注 英伟达探索13.8kV交流直转800V直流 可省配电变压器降低成本 中国西电和台达已推样机[17] * 储能成为数据中心主要供电影响者 Meta签300MW光伏配1,200MWh储能协议 阿联酋项目配套5.2GW光伏和19GWh储能 风光储组合度电成本低于煤电及天然气发电[18] * 阿里资本开支超预期带动国产算力链 其供应商中恒电气、北京科士达、夸大数据(进入电源供应链及液冷)受益[21] **其他重要内容** * 云计算收入与CAPEX增长关联性强 亚马逊2013-2022云收入增25倍CAPEX增18倍 阿里2014-2018云收入增18.5倍CAPEX增9.2倍 预示AI收入高增长将推动未来CAPEX[11][12] * 推荐关注Skup网络发展 其依赖switch芯片、网卡及交换设备 中兴通讯(基于12.8T芯片)和盛科通信(基于2T芯片)公开支持该协议[11] * 大陆HVDC主机企业积极布局 麦克米特成英伟达GB200服务器PSU供应商并推800V 570kW产品 科士达通过代工进入北美市场 科华数据在腾讯招标份额大并推液冷CDU[19] * 传统电力设备商如金盘科技(推2.4MW SCT样机)、阳光电源(组建团队进军HVDC、SST及PSU)纷纷涉足数据中心领域[20]
以太网 vs Infiniband的AI网络之争
傅里叶的猫· 2025-08-13 12:46
核心观点 - AI网络技术路线中以太网与InfiniBand的竞争格局已基本明确 以太网将在AI训练和推理场景中胜出 主要基于成本优势、生态兼容性和规模化部署能力[6][8][22][23] - 当前AI网络市场仍由InfiniBand主导 主要受英伟达服务器市占率超过70%的影响 但存在设备成本高和供应链依赖问题[8][14] - 超以太网联盟(UEC)已成立 目标是通过优化传统以太网性能 在AI领域与InfiniBand直接竞争 创始成员包括英特尔、AMD、博通、思科、微软、Meta等头部厂商[8] AI网络技术选型关键问题 - 部署选择:需考虑是否在现有TCP/IP网络上搭建 或建设专用高性能网络[9] - 技术路线:InfiniBand与RoCE v2的取舍 涉及带宽、时延、成本等多维度比较[9][12] - 运维管理:网络故障诊断与恢复机制[9] - 多租户能力:需同时满足内部研发和对外算力服务需求[9] 网络性能需求背景 - 大模型参数量已达百亿至千亿级 自动驾驶单次训练数据规模常达PB级[10] - GPT-3量级模型需要约2TB GPU显存 必须采用分布式训练将训练时间从三十年压缩至数周[10] - 分布式系统效率瓶颈在于通信时延 单步训练时延=GPU计算时间+通信时间[10] RDMA技术对比 - 主流技术路线收敛至InfiniBand和RoCE v2 RoCEv1和iWARP已基本退出市场[12] - RoCEv2通过UDP/IP封装实现三层可达 支持ECMP负载均衡 更适合复杂拓扑[12] - 延迟表现:实验室环境下 RoCE约5µs InfiniBand约2µs 显著优于传统TCP/IP的50µs[12] InfiniBand技术特征 - 典型组网:子网管理器(SM)+IB网卡+交换机+专用线缆/光模块[13] - 端口速率:HDR 200Gbps已商用 NDR 400Gbps正在落地 Quantum-2交换机支持64×400G连接[13] - 核心优势:原生无损传输(基于credit流控)和自适应路由能力[14][15] - 市场格局:英伟达市占率超70% 但Intel、Cisco、HPE等也有相关产品[14] RoCE v2技术特征 - 组网架构:标准以太网数据中心网络+支持RoCE的NIC和交换机[15] - 端口速率:50Gbps起步 商用产品已支持400Gbps[15] - 生态优势:沿用现有以太网布线标准 光模块体系兼容性强[15] - 工程挑战:需精细调优PFC、ECN等参数才能实现大规模无损传输[15] 直接性能对比 InfiniBand优势 - 带宽/速率高:专注端口速率快速提升[20] - 传输时延低:单跳转发时延<100ns[20] - 在网计算能力:交换机可理解业务报文[20] - 无损传输:基于credit的链路级流控[20] 以太网优势 - 线缆带宽和端口速度优于InfiniBand[21] - 大集群组网仅需两层结构 规模可达InfiniBand的4倍[21] - 动态负载平衡、端到端拥塞管理等特性更完善[21] - 整体功耗更低 交换机数量少3倍[21] 应用场景趋势 - 推理场景:以太网更适配 因其与前端网络兼容性好 且支持多租户[22][23] - 训练场景:InfiniBand当前占优 但以太网通过RoCE v2正在追赶[8][15] - 成本因素:以太网部署成本显著低于InfiniBand[21][23]