全球大模型竞争格局演变 - 2025年开年,DeepSeek的崛起成为改变全球大模型竞争态势的关键一环,国产大模型正充分拥抱开源生态 [1] - 行业逻辑正从“开源做生态,闭源做商业”的简单二元论发生变化,形成“三极鼎立”的新局面 [1][4] - 新的现实是,开源正在毁灭卖模型的商业模式,逼迫闭源走向更深的服务整合,即集成和分发 [1][4] 大模型竞争“三极鼎立”格局 - 第一极:美方SOTA闭源模型,以GPT-5、Gemini 3为代表,凭借断层式推理性能和Agent能力,服务于企业关键业务流和高价值知识挖掘,以私有数据访问权、极致安全性和用户入口构建护城河 [4] - 第二极:中国普惠开源模型,核心是算法优化突破算力瓶颈,追求极致和普惠 [4] - DeepSeek-V3通过MoE和MLA等创新,实现训练和推理成本量级降低 [4] - DeepSeek-R1性能对标OpenAI o1,采用纯强化学习路径和蒸馏技术,将高阶智能拉入普惠人间 [5] - 截至2025年10月,阿里通义千问Qwen的全球下载量已突破7亿次,成为全球第一AI开源模型 [5] - DeepSeek与Qwen的崛起不仅是性能追赶,更是架构效率与工程化能力的超越,在全球构建了足以抗衡硅谷的第二极技术生态 [5] - 第三极:垂域Agentic AI深耕,聚焦垂直行业应用落地和价值挖掘,典型代表包括欧洲Mistral等 [5] 开源与闭源模式的战略转变 - Meta从“开源先锋”转向闭源(启动“Avocado”项目),是资本效率与竞争逻辑下的必然选择 [2] - 2023至2024年,Meta通过开源Llama系列模型,将PyTorch和Llama架构确立为行业事实标准,成功扮演了“反OpenAI联盟”盟主角色,使模型商品化以削弱竞争对手的垄断溢价 [2] - 进入2025年,该策略遭遇资本墙,前沿模型训练成本突破百亿美元大关,单纯依靠“生态影响力”已无法满足投资回报率审查,且缺乏云服务或应用场景等变现能力,无法构建可持续商业闭环 [3] - 曾引领文生图领域的开源先驱Stability AI在2025年面临严重现金流断裂与债务危机,最终不得不重组并引入外部资本控制 [3] AI发展目标:从AGI到ASI的演进 - AI发展逻辑正从“拟人化”迷途回归“工程化”坦途,即从“模仿人类”转向“数学优化” [5] - ASI被定义为在科学、代码、数学和复杂系统模拟等客观领域远超人类能力的智能形式,其发展目标从“模仿人类的通用性”重定向为“追求客观真理的极致优化” [6] - ASI将智能进化重构为可量化、可预测的工程问题,核心由三大引擎驱动 [6] 1. 通过测试时计算进行慢思考,依赖可预测的工业堆叠 2. 递归自我进化,利用“形式化验证”作为奖赏信号,不依赖昂贵且不稳定的人类反馈 3. 合成数据成为模型的高质量“燃料” - ASI发展面临三大阻碍 [6] 1. 评价体系滞后,易陷入“刷分陷阱” 2. “验证鸿沟”:当ASI提出的解法超越人类理解范畴时,难以判断是创新还是幻觉,这是阻碍其商业价值闭环的关键卡点 3. 面临物理世界反作用力,如吉瓦级(GW)的能源缺口、半导体供应链极限、安全治理真空等 算力基础设施面临的系统性挑战 - 随着摩尔定律边际效应递减及大模型参数量指数级膨胀,未来算力基础设施的显著瓶颈已从单一芯片计算能力转向数据传输能力 [7] - 核心挑战在于“内存墙”与“通信墙”的双重夹击,以及由此导致的“空泡”现象 [8] - “内存墙”:模型参数增长速度远超显存容量增速,模型必须被切分得更细,导致更频繁的跨芯片通信,加剧带宽压力 [8] - “通信墙”:在传统冯·诺依曼架构下,数据在存储与计算单元间搬运的能耗可能占总能耗的60%至90% [8] - 由于单个GPU显存无法容纳完整大模型,必须采用流水线并行、张量并行等技术将模型切分到多个GPU甚至多个计算节点上,随着集群规模扩大,跨节点通信变得频繁 [8] - 跨机通信带宽远低于机内通信带宽,导致“空泡”时间在总训练时间中占比急剧上升,极端情况下,昂贵GPU集群有超过50%的时间在等待数据 [8] - 竞争焦点从单芯片算力发展为芯片+互联+生态的协同竞争,以AI芯片和Scale-up互联为基础的推理效能和超节点算力成为主要方向 [8] 算力基础设施的未来发展方向 - 算力基础设施的未来不是“GPU越多越好”,而是追求“通信效率越高、系统越可靠、成本越可控” [9] - 超节点是应对数据传输瓶颈的关键路径,聚焦算力密度和算力扩展能力提升,使其在逻辑上表现为一台“巨型计算机” [9] - 构建可持续基础设施的主张包括 [9] - 以开放协议为根基:推动开放互联协议标准化,支持并参与国内开放互联标准(如OSIA、OLink、ETH-X)的制定与推广,构建兼容多厂商GPU的开放型超节点架构 - 以系统工程为手段:强化系统级工程能力,提升可靠性与可运维性,推动“算力+网络+散热+供电”一体化设计,布局液冷与智能供电 - 以场景价值为导向:追求“性能-成本-能耗”更优平衡 - 主张“性能甜点区”,反对盲目追求超大规模 [10] - 大模型训练中,优先验证64卡超节点的性价比 - 推理场景中,探索与DeepSeek类似的“跨节点专家并行+通信重叠”等软件优化方案 - 推动“Scale-up+Scale-out”混合架构,核心训练集群采用超节点,边缘或中小模型部署采用传统8卡服务器,实现资源分层、按需供给 AI与通信网络的深度融合 - 通信网络正从“管道”向“神经中枢”转型,算力是神经元,网络就是神经网络 [10] - AI对网络的双重影响 [10] - AI for Network:产品级重点在硬件智能内生和软件智能进阶;网络级则通过Agentic AI、大数据和数字孪生深度融合,加速自智网络向L4+迈进 - Network for AI:在智能生产阶段,需要支持多种开放标准的高速无损互联(Die 2 Die、GPU 2 GPU、集群内部和DC之间),提升智算中心性能与效率;在智能应用环节,云边端协同、智能体间协同成为常态,泛在AI需要更强大的网络支撑 - 基础设施层面,将从“芯片级摩尔”向“系统级摩尔”迈进,即网、算、存、软、能协同发展 [11] - 应用层面,AI+通信网络+感知交互+存储计算+新能源五大基础技术融合,最终走向超级智能体 [11] - 传统APP面临AI Agent重构与“升级换代”,构建自有AI Agent开发平台支撑传统应用演进和AI原生应用成为核心需求 - Agentic AI会让算力网络和边缘计算重回关注重点 - 运营商需要能力上从“尽力而为”到“万无一失”,业务上从“一致性”到“差异化”,服务上从“拼指标”到“拼场景体验”,融合和集成能力是关键,最终考验资源利用效率和服务变现效率 [12] - 在AI大模型加持下,通信行业正经历从底层物理设施到上层商业模式的彻底重构 [12] 1. 架构融合:推动通信网络向“分布式超级计算机”演进,算力网络通过SRv6和算网大脑,打破计算与网络界限,实现资源的原子化解耦与重组 2. AI内生:6G网络将是智能原生的,深度学习深度融入,使网络具备自我学习、自我优化能力 3. 价值重塑:运营商和设备商有望从单纯的连接提供者跃升为智能时代的“发电厂”和“输电网”,成为数字经济赋能者 对AI“泡沫论”的见解 - 当前AI“泡沫论”的兴起,源于英伟达市值伴随业绩屡创新高,以及全球头部AI玩家围绕AI基础设施的密集投资和交叉投资推高市值的争议 [13] - 与2000年“互联网泡沫”的相似点在于:都有改变世界的愿景,都充斥FOMO(错失恐惧症)情绪,都存在大量初创公司高估值 [13] - 与互联网泡沫的不同点在于 [13] - 今天的AI已有大规模实际应用和激增的收入 - 核心大玩家(微软、谷歌、英伟达等)拥有稳健的现金流和相对合理的市盈率 - AI技术效用是真实的,更类似2000年的光纤基础设施建设,虽然短期可能算力过剩,但基础设施的铺设为长期应用爆发奠定了基础 [13] - 最大的风险存在于金融层面,市场上确实存在估值泡沫和约6000亿美元的营收缺口 [14] - 巨头通过“云计算信贷”和“往返交易”构建的账面繁荣掩盖了部分真实需求不足,债务融资与SPV的操作也存在较大风险 [14] - AI领域存在赢家难定、利润之谜、技术寿命等巨大不确定性,也可能导致泡沫破裂 [14] - 开源与闭源的博弈、通用与专用的博弈、推理经济性、能源约束、监管与法律等,也可能成为影响行业的变量 [14] 构建健康AI商业循环的建议 - 关注从“参数竞赛”转向“推理经济学”,只有当推理像水电一样便宜,Agent才能大规模替代人工 [14] - 拒绝“套壳”,深耕“工作流”,商业模式应从简单的Chatbot转向嵌入核心业务流的Agentic AI,按结果收费 [14] - 为避免反垄断拆分风险,巨头应主动降低对初创公司的排他性算力绑定,开放解耦 [14] - 对于能源和芯片的投资,应基于真实的推理需求预测,而非线性的训练规模外推,坚持投资基础设施的长期主义 [14] - 着眼去杠杆、关注ROI,应剥离金融工程带来的虚假收入,关注扣除云成本后的单元经济模型,优先采用小语言模型降低落地成本 [15] - 不能忽视监管机构在平衡创新与安全方面的作用 [15]
中兴通讯崔丽:全球大模型之争“三极鼎立”,开启“实用竞赛”