谷歌创始人罕见反思:低估 Transformer,也低估了 AI 编程的风险,“代码错了,代价更高”
AI前线·2025-12-21 05:32

文章核心观点 - 谷歌联合创始人Sergey Brin认为,当前AI在代码生成等关键任务上存在严重错误风险,可能更适合创意类、文字类等容错率较高的工作 [2] - 谷歌在生成式AI路线上曾因对技术浪潮的低估、算力投入不足以及对产品化风险的过度担忧而出现迟疑,让竞争对手抢占了先机 [2] - 真正的AI竞赛核心并非简单的“砸钱堆算力”,过去十年算法进步的速度远超规模扩张,算力是“甜点”,而算法与工程才是“主菜和蔬菜” [3][55] - 大学和工程教育在AI时代面临根本性挑战,需要重新思考其知识创造、传播以及人才聚集的物理形态在未来百年的角色 [41][42][43] 谷歌的创业历史与文化基因 - 谷歌起源于斯坦福博士阶段的自由研究环境,早期尝试过多种项目,包括失败的在线订披萨网站 [6][7][8] - 公司创立是技术授权失败后的“最后一个选项”,曾尝试以160万美元将技术授权给Excite但未成功 [10] - 公司创立之初就确立了宏大的使命(“整合全球信息”)和重视基础研发的学术精神,这深刻影响了其文化 [12][13] - 早期招聘大量博士,并基于对深技术的信任招揽顶尖人才(如Jeff Dean),奠定了其创新基础 [14][24] 对AI发展的观察与反思 - 谷歌低估了Transformer论文之后的技术浪潮,在扩大量级算力上投入不足,且因害怕聊天机器人“说蠢话”而过于谨慎,延迟了产品化 [22][23] - 谷歌的长期积累(如Google Brain、自研TPU芯片、大规模数据中心)使其仍能站在AI前沿 [24][25] - AI发展速度极快,竞争激烈,其最终能力上限和走向(包括超级智能)仍是未知数 [26][27][28] - AI目前更多是增强人类能力的工具,能提供各领域80%-90%的概览知识,让个体更有能力 [30][31][33] 对人才、教育与创业的建议 - 不建议因AI会写代码而放弃学习计算机科学,编码能力对AI发展本身至关重要,且AI生成的代码可能存在严重错误 [35][36][38] - 给创业者的建议是避免过早商业化,需将产品打磨成熟后再推向市场,以免被外部期待绑架,并以Google Glass为例说明了抢跑的教训 [50][51][52] - 在AI时代,大学需重新定义自身价值,在线教育和AI助手使知识获取民主化,但高密度人才物理聚集的“生态”价值仍需思考 [41][42][43] - 学术界到产业界的创新管道价值面临挑战,因产业界研发和规模化速度加快,但某些需要长期“发酵”的激进探索(如量子计算新路径)可能仍需学术界 [46][48][49] 未来技术趋势判断 - 材料科学是被严重低估的新兴技术方向,其突破对AI、量子计算等领域有巨大潜在影响 [56] - 生物与健康领域的分子科学、合成生物学同样充满机会,不应被AI完全掩盖光芒 [56][57] - 解决AI发展瓶颈的关键在于算法、新模型架构(如Transformer的替代者)和训练方法的进步,这些比单纯扩大算力和数据规模更重要 [53][54][55]