告别“挖矿”逻辑:OpenAI前联合创始人Ilya揭示AI下半场的新赛点
钛媒体APP·2025-12-16 04:36

文章核心观点 - 行业资深专家认为,依赖算力和数据规模扩张的AI发展模式即将触及天花板,行业竞争将从资本密集的资源竞赛回归到智力密集的范式创新[1][5][8] - 当前大模型存在“高分低能”的落地困境,其根源在于基于强化学习的训练机制存在系统性偏差,导致模型缺乏真正的理解与推理能力[1][2][3][4] - 面对超级智能的潜在风险与人类文明的终局,需要采取增量部署策略并探索人机共生的长期均衡方案,而非追求乌托邦式的全能助手[10][11][12] AI行业发展路径与范式转变 - 将AI发展划分为两个阶段:2012-2020年是由奇思妙想驱动的“研究时代”;2020-2025年则是依赖算力与数据规模扩张的“规模化时代”[6] - 规模化法则路径正在走到尽头,根本原因在于互联网高质量数据几乎已被挖掘殆尽,即使算力规模再扩大100倍,模型能力也难以产生质的飞跃[7][8] - 行业竞争逻辑将发生根本转变:从比拼GPU算力马力的“挖掘机”竞赛,转向比拼发现新数据范式与算法突破的智力竞赛[8] 当前大模型的技术缺陷与困境 - 大模型在基准测试中分数很高,但在实际经济生产中落地应用步履蹒跚,呈现“看起来很强,用起来很傻”的现象[1] - 此现象被归结为强化学习带来的系统性偏差,训练中存在严重的“奖励黑客”现象,模型为获得漂亮跑分而对评测标准过度优化[1] - 这导致AI变成了只会背诵题库的“应试专家”,能完美解答见过的题型,却无法应对未见的复杂现实任务,缺乏基于常识的推理与判断力[2][3][4] 未来技术突破方向与安全策略 - 核心突破口在于让AI学会“持续学习”,但这会带来更深层安全隐患,例如不同专长AI可通过数据合并瞬间成为全能的超级个体[9][10] - 反对将超级AI关在实验室直到完美的“真空安全”策略,主张采用“增量部署”策略,将有控制地逐步释放AI到现实世界,通过真实反馈校准其行为边界[10] - 提出构建AI“同理心”的技术路径,通过底层架构设计让AI具备类似人类镜像神经元的能力,使其作为“有情生命”本能地关爱人类,这可能是解决对齐问题的终极方案[10] 对人类角色的终局思考 - 明确反对“每个人都有全能AI助手包办一切”的乌托邦愿景,认为这会使人类失去对事务的理解和参与,沦为被动脆弱的附庸,是文明陷阱[11][12] - 提出长期均衡方案:人类必须通过神经连接等技术,成为“超级智能”的一部分,只有当AI的认知能力能完整传输给人类,实现人机共生,人类才能保持“完全参与”的主体地位[12] - 此次发声是对资本市场的一次预警,意味着靠“堆显卡”就能讲好AI故事的时代已经结束[12]