研究核心发现 - 一项发表在《自然·通讯》上的颠覆性研究表明,大语言模型(如GPT-2、Llama-2)的内部层级处理结构与人类大脑处理语言时的神经活动在时间上存在完美对应关系,暗示大脑处理语言的核心机制是预测而非基于规则的解析 [1][3][27] 实验设计与方法 - 研究团队让9名植入高密度皮层脑电图(ECoG)电极的受试者聆听30分钟的故事,以毫秒级精度记录其大脑关键语言区域的高伽马脑电信号 [4][6] - 同时,将相同故事文本输入GPT-2 XL和Llama-2模型,提取模型从第一层到最后一层(共48层)在处理每个词时的内部语义表示 [7] - 通过降维和线性模型,用每一层的语义表示来预测大脑在对应毫秒的脑电活动峰值,以此检验模型层级与大脑处理阶段的时间对应关系 [8][10] 关键实验结果 - 大脑语言通路中,从初级听觉皮层(mSTG)到高级语义区(如TP、aSTG、IFG),GPT模型的层级结构呈现出清晰的“时间-深度”对应:浅层处理(暖色)的预测峰值出现更早,深层处理(冷色)的峰值出现更晚 [14][16] - 在高级语义区,这种对应关系尤为强烈,如前颞上回(aSTG)相关性r=0.93,额下回(IFG)r=0.85(p < .001),而初级听觉皮层(mSTG)则几乎没有层级结构(r≈0) [16][19] - 相比之下,基于音位、词素、句法、语义的传统符号语言学模型虽然能部分预测脑电活动,但无法呈现出这种清晰、连续、按时间顺序推进的层级结构 [22][23] 对语言理解机制的启示 - 研究表明,大脑理解语言并非逐步解析语法规则,而是进行一层又一层的连续语义推断和概率预测,这一过程与大语言模型(Transformer架构)的多层、非线性、依赖上下文的处理方式高度相似 [19][24][28] - 语言的定义可能从静态的规则体系转向动态的预测机制,理解语句是在每一毫秒中计算“下一刻可能发生什么” [28][30] - 这项发现意味着,大语言模型(如GPT)的成功可能并非源于对人类规则的学习,而是其底层计算路径意外地与人类大脑高效处理信息的进化路径趋同 [27][30][32]
GPT在模仿人类?Nature发现:大脑才是最早的Transformer
36氪·2025-12-11 10:48