AI服务器竞争格局重构:白牌崛起与品牌坚守
超微电脑超微电脑(US:SMCI)2025-10-14 14:44

行业与公司 * AI服务器行业[1] * 全球AI服务器市场[2] * 国内AI服务器市场[14] * 厂商类型:OEM厂商(如戴尔、HPE)[5][9]、ODM厂商(如广达、富士康)[5][9]、准ODM厂商(如Super Micro/SMCI)[5][9][11][12][13][19]、国内厂商(如浪潮、新华三、联想)[3][14] 市场规模与增长 * 2025年全球AI相关开支总规模约为1.15万亿美元[2] * 2025年AI服务器市场规模接近3,000亿美元,占所有服务器总市场规模(TAM)的72%,增速达46%[1][2] * 2025年全球AI服务器出货量预计达210万台,同比增长30%[2] * 预计到2028年,数据中心80%以上的算力将应用于推理场景[1][2] 技术趋势与挑战 * 需求转变:生成式AI热潮推动需求从大模型训练逐步转向推理部署[2][20][21],推理侧向边缘性和小规模数据中心迁移[2][15] * 技术挑战:AI服务器设计面临功耗和散热挑战[1][3],单卡功耗显著增加,例如H100单卡TDP达700瓦[3],Blackwell B200单卡TDP接近1,000瓦[4],八卡服务器总功耗可能超过14千瓦,单个机柜总功耗可能达60千瓦,超出风冷散热极限[3][4] * 散热方案:液冷技术加速普及[4][7],可有效解决高功耗设备散热问题,助力新建数据中心PUE(电源使用效率)降至1.2以下[1][4][7],成为产业格局变化的重要催化剂[1][7] * 边缘计算:成为AI推理新趋势,国内厂商在推理能力上更具优势,可部署于安防、基站等场景[3][15] 产业竞争格局 * OEM厂商:如戴尔、HPE,以传统渠道为主,通过附加支持服务提高毛利润率,毛利率约为20%[1][5][9] * ODM厂商:如广达、富士康等台系厂商,为下游大客户定制产品,市占率接近一半,但毛利率常年偏低,不到10%[1][5][9][10] * 准ODM厂商:如Super Micro (SMCI),提供深度定制服务,介于OEM与ODM之间[5][9][11] * 国内厂商:浪潮为国内龙头,依托国内市场资本开支(Capex)及信创政策,通过JDM模式为BAT等互联网巨头定制产品,研发周期缩短至6-9个月,并与本土GPU供应商(如寒武纪)合作应对出口管制[3][14] * 客户资源:美系和台系厂商与北美云计算巨头(如亚马逊、谷歌)绑定紧密,大陆系厂商主要集中在本土市场,客户资源分布影响区域拓展[3][16] * 市场演变:AI服务器行业从供不应求转向竞争激烈的红海市场,台系厂商竞争加剧、渠道折扣增加等因素导致部分厂商(如SMCI)毛利润率下降(从接近20%降至约9%)[19] 重点公司商业模式与表现 * Super Micro (SMCI) * 采用准ODM模式,通过模块化设计与上游GPU厂商紧密绑定,快速推出新品[11] * 采用RackScale整机柜交付模式,实现即插即用,大幅缩短交付周期,液冷机柜产能提升至每月2000个[12] * 液冷技术(如DLC产品线)实现差异化竞争,毛利润率显著高于标准产品[13] * 股价曾从低点上涨接近10倍,市值增长至接近500亿美元,反映了其向AI核心基础设施供应商的转变[17][18] * 台系ODM厂商 * 深度绑定北美云计算巨头,虽获得市场份额但品牌溢价低,毛利率常年低于10%,限制了研发投入和品牌建设,并高度依赖大客户[1][10] 投资视角与风险 * 估值逻辑:AI浪潮使硬件提供商转变为AI核心基础设施供应商,高增长是维持行业高估值的前提[17][18],短期股价波动提供布局机会[18] * 市场前景差异:训练服务器单套价值高,面向头部客户;推理服务器需求基数更大,更考验成本控制和场景适应能力,预计到2028年推理加速器负载比重将占70%-80%[20][21] * 潜在风险/泡沫担忧:投资者担忧算力服务器存在泡沫,主要源于过于依赖大企业资本开支(CAPEX)的路径,部分实际需求(如机器人模型对推理侧的需求)可能未被充分反映[22]