Workflow
散热危机
icon
搜索文档
全球AI争霸背后的电力较量:能源焦虑与联想(00992)液冷的爆发式增长
智通财经网· 2025-11-21 05:34
AI竞赛的瓶颈转向电力供应 - 微软CEO纳德拉指出AI竞赛瓶颈已从芯片供应转向电力,公司有海量闲置英伟达GPU因电力不足无法使用[1] - 英伟达市值在3个多月内从4万亿美元增长至5万亿美元,增长建立在指数级增长的AI基础设施需求之上[1] - 全球数据中心建设投资预计将达到3万亿美元[1] AI能耗需求呈现指数级增长 - AI能耗从集中式训练扩散到分布式推理,单次LLM查询耗电0.3至1瓦时,每日数百万至数十亿次请求使累积能耗呈指数级增长[3] - LLM推理工作负载能耗已与训练持平甚至超越,预计2026年全球AI推理需求达拍瓦时级别(1拍瓦时=10亿度电)[3] - 到2030年全球AI数据中心需额外增加96吉瓦电力容量,相当于瑞典年发电总量或100座美国标准核电站总输出[3] 数据中心电力成本构成巨大财务压力 - 1吉瓦数据中心全年满负荷运行年耗电量86.6亿度,电力成本达7亿至8.76亿美元[4] - 未来将出现电力需求达10吉瓦的超大型数据中心,电力成本增长相当恐怖[4] - 到2030年数据中心电力需求将增长165%,AI推理能源消耗在运营支出中占比已超过20%[5] 美国科技巨头采取自建发电站策略 - 美国面临电力短缺困境,老旧电力设施改造需等待7年以上,新天然气发电厂项目需等待至下一个十年[6] - 马斯克xAI公司在田纳西州建设需1吉瓦电力的数据中心,并在密西西比州配套建设天然气发电厂实现现场供电[6] - OpenAI、软银和甲骨文联合推进"星门"项目,计划投入5000亿美元在全球建设多座巨型数据中心[7] 中国依托清洁能源优势解决算力需求 - 中国在雅鲁藏布江启动总投资1.2万亿元的超级电力工程,装机容量6000万千瓦(相当于3个三峡电站),年发电量3000亿度[9] - 该工程可满足全国AI算力增长需求75%以上,电力成本低至0.1-0.3元/度,较美国同类算力成本降低60%[9] 液冷技术成为AI散热关键解决方案 - 数据中心电力消耗40%来自计算,40%来自冷却,20%来自其他IT设备[11] - AI芯片热流密度超过50W/cm²,局部热点达150W/cm²,空气冷却已无法满足需求[12] - 液体热容量是空气4倍以上,液冷技术可将热流密度限制推高至300W/cm²以上[13] 液冷市场进入高速增长期 - 全球数据中心冷却市场预计从2025年187.8亿美元增长至2032年424.8亿美元,复合年增长率12.4%[15] - 全球服务器冷却市场2025-2027年预计实现111%/77%/26%逐年增长,2027年达176亿美元[19] - 浪潮、华为、联想等厂商积极布局液冷方案,覆盖冷板式、浸没式等多种技术路线[16] 联想液冷业务表现突出 - 联想25/26财年Q2海神液冷技术营收同比增长154%(Q1增速68%),ISG营收近300亿元人民币,同比增长24%[17] - 联想液冷解决方案系统功耗比传统风冷直降40%,PUE值可降至1.1以下,新系统PUE可低至1.035[17] - 截至2025年三季度,联想海神液冷系统全球部署量超8万套,参与制定行业标准,技术话语权位居行业前列[19]