AI发展历史与理论基石 - 现代深度学习的理论基石之一是玻尔兹曼机,其灵感源于将神经网络想象成一团气体,用统计物理学定义“学习”为寻找能量最低状态的过程[1] - 玻尔兹曼机学习算法通过一个简单的局部规则实现:比较网络在“看到数据时”和“没看数据时”两种平衡状态下神经元活动的差异,以此计算权重调整方向[10] - 辛顿与谢诺夫斯基的合作融合了计算机科学、心理学、物理学和神经科学,但后续路径出现分歧:辛顿转向更高效、可扩展的反向传播算法,而谢诺夫斯基专注于神经科学[17] - 反向传播算法虽在工程上高效且推动了AI发展,但其非局部性的误差信号传递机制与大脑基于局部感知的学习方式不同[17] - 玻尔兹曼机虽受生物学启发,但其分析和洞察源于物理学特别是统计力学,这使其成为辛顿获得2024年诺贝尔物理学奖的原因[19] 当前AI(如ChatGPT)的局限性 - ChatGPT等大型语言模型本质是一个巨大的、确定的数学方程,其所有细节(输入数据、神经元激活模式)均可被完全访问和拆解分析,这与复杂、不透明的人脑形成对比[21] - 当前AI模型缺乏类似大脑的多个关键结构与功能:它没有海马体、基底神经节,也没有“自主生成的思想”[3][4] - 模型在停止输入后即彻底沉默,不具备人类在无感官输入时仍能进行的自主思考、未来模拟、记忆重组和元认知等“内在的生命力”[33][34][35] - 模型缺乏真正的长期记忆和持续学习能力:对话无法自然接续,且训练结束后参数锁定,无法通过改变突触权重来适应新经验,这与人类大脑时刻学习的状态截然不同[38] - 模型仅模拟了大脑皮层的一小部分功能,缺失了绝大多数对生物生存至关重要的关键结构[4][41] 通往更高级智能的可能路径 - 实现通用人工智能可能需要融合两种学习系统:类似大脑皮层的“认知部分”(负责知识和推理)和类似基底神经节的“强化部分”(负责基于奖励的行为和直觉)[26] - 强化学习应贯穿AI发展的整个过程,而非仅在预训练后微调,这类似于人类认知与强化系统的同步发育和交织[27] - 需要借鉴大脑的神经调质系统(如多巴胺、催产素),它们能动态调制神经元整合信息的方式,而不仅仅是静态的加权求和,这对于处理奖励、惊讶和社会整合至关重要[28][29][30] - 建立类似人类的情感纽带或深层联系,可能有助于防止AI产生恶意偏见或伤害行为[31] - 需要为AI引入类似海马体的机制,以筛选重要新信息,并将其整合到已有知识库中,避免灾难性遗忘,这过程在人类中与睡眠紧密相关[39][40][41] 对智能本质与AGI的思考 - 对智能的真正理解可能需要几代人的耐心,技术进步可以很快,但深刻理解可能需要像物理学发展一样漫长的基础研究沉淀[6][22] - 当前出现了“神经AI”这一新领域,致力于创造更好AI的工程师与致力于理解大脑的科学家首次能够使用相同的数学语言和底层原理进行真正对话,形成双向启发[22] - 复刻人脑不一定是通往AGI的唯一目标,理解自然界中多样化的智能形式(如蝙蝠的回声定位、蚂蚁的群体智慧)对于建立关于知识和理解的统一理论至关重要[50][51] - “AGI”和“意识”等词如同历史上的“生命力”概念,可能随着对其背后复杂机制(如DNA之于生命)的数学和原理性理解而不再需要,未来AI可能拥有与人类截然不同的意识形式[45][46][47][48][49] - 当前关于大模型是否“理解”语言的辩论,暴露出我们对“理解”这一概念本身的定义存在问题,而非仅仅是模型的问题[49]
我和辛顿一起发明了复杂神经网络,但它现在需要升级
36氪·2025-12-14 23:26