文章核心观点 - 卡内基梅隆大学教授Tim Dettmers认为,通用人工智能(AGI)是一个违背物理规律的幻想工程,其核心障碍在于计算的物理枷锁,而非哲学或算法问题 [1][4] - 硬件性能的瓶颈、资源成本的指数级增长以及现实世界数据收集的困难,共同决定了AGI无法实现 [1][12][18] - AI的未来在于物理约束内的渐进式改进、经济扩散和实际应用,而非追求超越人类的超级智能 [20] 硬件与物理限制 - 所有智能都需扎根于物理现实,依赖芯片、计算机等硬件实现,而硬件必然受到物理规律的限制 [2][3][4] - 信息移动成本是核心物理限制之一,其成本随距离呈平方级上升,这体现在芯片缓存设计中(如L2、L3缓存比L1大但速度更慢)[5] - 现代芯片设计面临内存与计算单元的权衡,晶体管尺寸缩小降低了计算成本,但内存成本越来越高,导致芯片上大部分空间用于内存,计算单元占比微乎其微 [7] - 当前主流的Transformer架构本质上是硬件信息处理效率的物理优化,且已接近物理最优 [8] 资源投入与收益递减 - 系统性能的线性进步需要指数级增长的资源投入,这在物理和理论层面都存在限制 [9] - 物理学的发展是例证:过去个人可取得理论突破,现在却很难;实验物理如耗资数十亿的大型强子对撞机也未能解开暗能量、暗物质谜团 [10][11] - AI领域同理,试图通过堆叠资源实现AGI的通用能力,其成本迟早会超出实际承受范围 [12] - 过去GPU的指数级进步能抵消模型规模扩张的资源消耗,但现在GPU进步停滞,想获得线性性能提升需投入指数级成本,这在物理上很快将不可行 [16] GPU算力增长已达瓶颈 - GPU的性价比在2018年已达到峰值,之后的改进(如16位精度、张量核心、HBM内存)均为一次性功能,潜力即将耗尽 [14] - 行业寄希望于机架级优化(如更高效调度AI键值缓存),但此类优化设计思路单一,本质上只有一种最优设计方式,各公司基础设施差距很小 [14] - 机架或数据中心级别的优化优势预计在2026-2027年就会耗尽,GPU的算力增长线已快走到尽头 [14][15] AGI与超级智能的不可行性 - AGI要求能处理物理世界的复杂任务,但物理世界数据的收集成本极高(例如训练工厂机器人应对零件磨损、天气变化)[18] - 超级智能假设AI能自我迭代、无限变强,但变聪明需要资源,性能每提升1%,所需的资金和算力可能增加10倍,而AI无法凭空创造资源,因此无法实现无限增强 [19] - 结论是AGI不会实现,超级智能亦是幻想 [17][19] AI的未来发展路径 - AI的未来是在物理约束内进行渐进式改进,通过经济扩散和实际应用创造价值 [20] - 具体方向包括开发更节省算力的算法、推广开源AI模型以扩大使用范围,以及将AI应用于医疗、农业、制造业等领域以提升效率 [21] - 美国科技巨头倾向于“赢者通吃”,投入巨资追求不切实际的AGI [21] - 中国的发展路径更聚焦于AI的落地实用,关注其提升生产力的能力,并通过补贴推动AI融入各行各业,被认为更贴合现实 [22]
CMU教授万字反思:西方式AGI永远到不了
量子位·2025-12-20 07:38