清华孙茂松:对工业界而言,大厂可以Scaling,其他玩家重在垂直应用 | MEET2026
量子位·2025-12-21 02:00

文章核心观点 - 生成式AI与大模型的发展已进入一个关键阶段,其核心魅力在于模型规模扩大时可能出现的非线性“能力涌现”,这带来了巨大的不确定性,但也可能带来超越想象的性能突破 [3][18][19] - 当前行业面临的核心挑战在于如何让机器从擅长“言”(语言)进步到真正的“知”(知识)与“行”(行动),实现“知行合一”,这关涉重大的理论与方法创新 [15][33][35][38] - 在Scaling Law(规模定律)边际成本高昂且前景不确定的背景下,行业发展路径应遵循“致广大而尽精微”的战略:极少数顶级团队可继续探索规模极限,而绝大多数公司应将重心放在垂直领域的“精微”应用上 [7][15][60][69][74] 大模型发展态势与现状 - 基于深度学习的AI在近8年内(约2017-2025年)快速进入预训练模型和大模型时代,发展呈现“苟日新、日日新、又日新”的常态 [11][14] - 关键模型发布的时间节点密集:GPT-3发布距今约5年,ChatGPT发布约3年,中国代表模型DeepSeek出现刚满1年 [16] - 文本、代码、多模态大模型的基础能力已达到相当高的水平,几乎“踏平”了所有基准测试(Benchmark) [20][26] - 在“人类最后的考试”(Humanity‘s Last Exam)这类无标准答案的难题测试中,顶尖人类高手可能只得5分,而大模型已能拿到三四十分 [23][24] - 可以预期,未来几年内,一切有标准答案的人类考试都将难不住机器 [15][25] - 在2025年的世界大学生程序竞赛中,人类第一名已不敌大模型 [25] Scaling Law的挑战与风险 - AI发展严重依赖Scaling Law,即大模型、大数据、大算力的持续投入,形成了“无止境的FOMO”(错失恐惧症),无人敢停 [2][6][38] - 任何信息系统发展到一定阶段都可能趋于性能饱和,Scaling Law存在失效风险,继续投入可能得不偿失 [15][40] - 支撑Scaling的代价极其昂贵,投入巨大到“让华尔街直冒冷汗” [42][43] - 以OpenAI为例,其当前计算能力约2GW,计划到2033年提升125倍至250GW,这相当于250个核反应堆的平均发电能力 [44][47] - 为实现该目标,对应的投资规模可能高达10万亿美元,且不包括电力成本 [47] - 这种激进的投入蕴含着很高的风险,但行业又“不能不跟”,因为担心错过可能出现的“能力涌现”而导致落后 [45] 具身智能与“知行合一”的挑战 - 大模型已具备较强的系统一(快思考)和系统二(慢思考)能力,为走向现实世界的具身智能奠定了基础 [27] - 然而,当前大模型强于“言”,弱于“知”与“行”。“知”不完整、不体系化,“行”则面临质的飞跃的困难 [33][35][36] - 实现“知行合一”是AI当前面临的最大挑战 [15][38] - 从文本到图像、视频,再到具身智能(四维:三维空间+时间),Next Token Prediction策略的有效性逐级下降,面临根本性理论挑战 [49][50][52] - 未来五年内,人形机器人进入通用开放环境(如家庭照顾老人)自主完成复杂任务“几乎是不可能的” [15][52] - 图灵奖得主Hinton建议,AI要具备水管工的能力“还差得很远” [53][54] - 具身智能更可能在有限的任务空间和特定场景中实现突破性应用 [55][56] 行业发展路径:“致广大”与“尽精微” - 行业发展应借鉴“致广大而尽精微”的理念 [60][63] - “致广大”指不计成本地追求模型规模极限,以美国为代表,投入巨大(如计划使用上亿张GPU),旨在通过可能出现的“能力涌现”形成断层领先优势 [64][65][66] - 国内仅有极少数实力雄厚的大厂可能具备条件在“致广大”路径上跟随国际前沿,但过程艰辛 [67][74] - 尽管当前中美大模型性能差距不大,但在“致广大”路径上,未来几年仍存在非常大的不确定性 [68] - “尽精微”指深耕垂直领域应用,将AI与具体行业深度融合,这是国内当前应重点采取的战略选择 [69][74] - 以DeepSeek、千问为代表的开源基座模型已具备扎实基础,为垂直应用提供了可能 [69] - 垂直领域应用挑战大,但风险相对较小,且中国在应用场景、工业基础及人才方面具备优势,有望在该领域取得领先 [74] - “尽精微”本身也可能孕育出新的人工智能算法,从而成为一种“致广大” [71] - 建议绝大多数AI公司将主要精力放在“尽精微”上,同时保持对“致广大”前沿的密切关注 [74]