狂飙的算力基建,如何实现「价值闭环」?丨GAIR 2025
雷峰网·2025-12-18 10:10

文章核心观点 - 实现算力基建的商业价值闭环,关键在于提供“方便、易用、便宜”的算力,并推动AI应用在具体场景中落地,帮助客户盈利或节省成本[1][12] - AI推理市场正处于爆发前夜,其全面爆发依赖于多模态应用效果的稳定和成本的显著下降,预计将带来Token消耗量的百倍级增长[5][25][30] - 2025年算力行业的关键里程碑包括DeepSeek的崛起推动AI全民化、国产超节点方案突破以及AI眼镜等硬件催生数据爆发,为2026年国产化与液冷技术普及奠定基础[31][34][36] 算力基建如何实现商业闭环 - 行业现状与痛点:当前智算中心算力平均利用率不足40%,算力消纳是行业通病,大模型训练需求退潮后,增量需求转向分散零碎的推理场景[4] - 发展阶段转变:算力建设从过去“重建设、轻消纳”转向“建即用、用更好”的实用导向,需从应用场景与客户需求倒推建设方案[9] - 价值闭环的核心标志:算力价值体现在“方便、易用、便宜”三大核心点,其闭环核心是AI方案能在业务场景落地并帮助客户盈利或解决核心痛点[12][13] - 实现路径与案例: - 节流模式:通过算力卡回收等业务,帮助客户极致节省采购与硬件成本,有被投企业在该业务上实现数亿元营收[5][13][14] - 开源模式:例如为房地产销售公司提供基于大模型的客户意向分析工具,直接帮助提升成交量,使开发商愿意付费[12] - 技术优化:通过浸没式液冷方案将GPU满载温度从80-90℃降至50-60℃,有望将万卡集群平均MFU从30%提升至50%以上,降低故障率和维保成本[6][7] - 关键举措与全链路优化:AI模型落地需极致的全链路优化,例如通过联合优化,曾将某图片生成产品的单张图片生成耗时从30秒大幅提升5-6倍性能[20][21] - 避免价值陷阱:算力选型核心是“由应用场景及模型倒推”,而非盲目采购服务器或仅关注算力参数,需结合具体模型需求(如显存)和业务场景进行精细配置[15][16][17] 推理需求爆发与产业增长节奏 - 市场阶段判断:2025年AI推理市场已步入爆发前夜,上半年中国MaaS市场规模已实现4-5倍增长,部分大厂预判明年增速有望达10倍[5][25] - 爆发前提条件:全面爆发依赖大模型能力的进一步突破,尤其是多模态(视觉、图片、视频)应用效果的稳定化和成本的大幅下降[25][26] - 成本壁垒:当前多模态应用成本过高形成显著壁垒,例如图片、视频生成因效果不确定需“抽卡”,单次任务成本负担重[26] - 技术迭代速度:图片领域技术迭代速度显著快于文本领域,几乎每几个月就有新模型引发热议,未来潜力值得关注[5][27] - 增长预测与规模:孙正义预测到2035年AI将渗透全球5%的GDP,形成每年9万亿美元市场,倒推未来数年推理算力需求可能保持每年十倍以上高速增长[27] - 中小企业突破口:中小企业应聚焦垂类场景与边缘侧算力服务,例如为医院、工厂提供本地化部署的软硬件一体化方案,或融入垂类应用生态[28] - 对行业的影响与成本趋势:AI普及需成本实现一个数量级下降,每百万Token价格需再降低10倍以上,预计未来半年至一年具备较高可行性,行业价格每6-12个月可能腰斩[29] 算力、算法、数据协同与未来展望 - 2025年关键里程碑事件: - 模型领域:DeepSeek的爆火重塑了大众与行业对AI的认知,推动AI从行业层面向全民应用普及,其开源也凸显了AI Infra软件的核心价值[31][32] - 算力领域:国内华为、阿里、百度、曙光等企业推出国产化超节点方案,逐步追平国际水平,结合浸没式液冷等技术有望实现反超[34] - 数据领域:小米、阿里等大厂入局AI眼镜,这类低功耗可全天佩戴的设备能实时抓取物理世界数据,将极大加速世界模型的训练进程[34] - Token消耗增长预测:若AI眼镜等产品在未来两三年内实现数亿副普及,每人日均Token消耗量有望从当前约1万提升至十万甚至几十万量级,整体Token消耗规模或将实现百倍乃至更高倍数增长[5][35] - 2025年总结:国内AI从训练走向推理趋势明显,MaaS市场进展迅速,可总结为“推理”之年[35][36] - 2026年展望:关键词为“国产”与“液冷”,预计更多大厂及央国企将加速转向国产芯片,同时为满足新建智算中心PUE低于1.3的要求,液冷技术将迎来爆发[36][37]