连接主义
搜索文档
中文屋提出者逝世,曾当众“调戏”Hinton被记了半辈子
36氪· 2025-11-30 06:10
约翰·塞尔生平与影响 - 哲学家约翰·塞尔于2024年9月16日去世,享年93岁[1] - 塞尔于1932年生于美国丹佛,19岁获罗德奖学金转入牛津大学,师从约翰·奥斯汀,1959年加入加州大学伯克利分校并任教长达六十年[17][18][19] - 其以犀利直言著称,一生不断与主流理论对抗,与丹尼尔·丹尼特、德里达等人的争论是二十世纪后半叶哲学史上的标志性场景[20][21] - 2017年因多起性骚扰指控被伯克利撤销荣誉教授头衔,其命名的“塞尔中心”关闭,去世后主流媒体讣告报道姗姗来迟[27][28][29][30] “中文屋”思想实验 - 塞尔于1980年提出“中文屋”思想实验,被视为人工智能哲学史上的经典命题,与“图灵测试”并列[3] - 实验设想一个不懂中文的人凭借英语规则书处理中文问题,论证程序只能模仿智能的语法形式,无法获得真正的语义理解,从而反驳强人工智能主张[35][36][38] - 该实验质疑图灵测试的有效性,认为机器行为上的“智能”表现不等于真正理解,强调理解需要建立符号与对象间的语义联系[38][39][40] - 该思想实验影响持续至今,常被用来比喻GPT等大型语言模型只是在“模拟理解”而非“拥有理解”[41][42] 学术分歧与争议 - 塞尔在70年代一场电视录制中“戏耍”了年轻的杰弗里·辛顿,令后者耿耿于怀半个世纪,节目开场便打破不谈“中文屋”的约定并对辛顿进行哲学拷问[3][5][6][7][8][9] - 学术根源上,辛顿代表的连接主义主张心智是分布式网络,而塞尔将人工智能一概视为“符号操作系统”,未区分符号主义与连接主义,导致辩论框架不对称[12] - 在意识问题上,塞尔主张心智经验源自大脑功能,是神经放电的产物,否定模糊的“精神”概念[24][25] - 在与后现代主义者的对立中,塞尔坚称从一个角度看事物并不意味着看不到真实本身[26] 对“中文屋”的批评与AI“理解”的再思考 - 玛格丽特·博登指出争论焦点应从“是否理解”转向“理解如何生成”,即为了能够作出理解,机器必须能够做到哪些事情[44] - 约翰·麦卡锡批评塞尔混淆了执行计算的人的心理特质和被计算模拟的过程,认为“中文屋系统”作为一个整体可能理解中文,正如单个神经元不懂语言但大脑能懂[44] - 史蒂文·平克认为塞尔只是在讨论“理解”一词的用法,未触及可观测的科学问题[45] - 杰弗里·辛顿认为大型语言模型确实以模拟人类认知的方式“理解”语言,通过为单词分配特征并分析特征间的相互作用来实现,这是对大脑语言处理最接近的模拟[47][48] “中文屋”选择中文的原因 - 塞尔解释选择中文是因为它是一种他完全不会的语言,便于假定存在一个“理解中文”的程序[50] - 网友解释可能反映了西方文化刻板印象,英语谚语“It's all Chinese to me”意为“完全听不懂”[52] - 拉丁字母语言间有词形或语源可猜,而中文独立的文字系统彻底切断了这种可能,使“不可理解”更为彻底,增强了思想实验的隐喻张力[52]
中文屋提出者逝世,曾当众“调戏”Hinton被记了半辈子
量子位· 2025-11-30 05:09
约翰·塞尔的哲学遗产与人工智能哲学 - 约翰·塞尔于2024年9月16日去世,享年93岁,其提出的"中文屋"思想实验被视为人工智能哲学史上的经典命题,与图灵测试并列[1][3][4] - "中文屋"实验于1980年提出,核心观点是机器只能模拟智能的形式(语法层面),但无法真正理解语义,质疑强人工智能的可行性[49][52][54] - 该实验直接影响当代对GPT等大型语言模型的讨论,引发"模拟理解"与"生成理解"的争议,至今仍是AI哲学的核心议题[5][57][59] 中文屋思想实验的学术分歧 - 塞尔将人工智能一概视为"符号操作系统",未区分符号主义与连接主义,这与杰弗里·辛顿的并行分布式处理(PDP)理论形成直接对立[19][20][21] - 中文屋实验强调理解需依赖符号与对象的语义联系,而计算机仅操作形式符号,缺乏意义把握[52][55][56] - 反对者如约翰·麦卡锡认为塞尔混淆了执行计算的人与计算模拟的过程,指出系统整体可能具备理解能力,如同神经元不懂语言但大脑能理解[60][61] 塞尔与学术界的争议事件 - 20世纪70年代电视录制中,塞尔打破与辛顿的约定,公开讨论中文屋实验,导致辛顿称其为"极其痛苦的经历"[6][7][11][12] - 塞尔以犀利直言著称,曾评价哲学工作"像谋杀",并与丹尼特、德里达等学者激烈争论,形成哲学史标志性场景[34][35][38] - 2017年因性骚扰指控被加州大学伯克利分校撤销荣誉教授头衔,相关中心关闭,晚年争议影响其公众形象[41][42][46] 中文屋的隐喻选择与文化背景 - 塞尔选择中文作为实验语言,因其完全不懂中文,且中文独立的文字系统切断了与其他语言的词形关联,强化"可操作但不可理解"的隐喻[67][72][73] - 英语俗语"It's all Chinese to me"反映西方文化中对中文"难理解"的刻板印象,增强了实验的张力[69][70][71] - 实验设计看似随意,实则通过语言隔阂凸显语法与语义的分离,成为哲学史上最具影响力的思想实验之一[68][74] 当代AI技术对中文屋的回应 - 辛顿认为大型语言模型通过为单词分配特征并分析特征互动,实现了对人类认知的模拟,本质是一种理解形式[64][65] - 争论焦点从"机器能否理解"转向"理解如何生成",如玛格丽特·博登指出需关注"理解所需的条件",而非二元判断[59][60] - 费曼名言"What I cannot create, I do not understand"暗示通过构造与模拟可能重新定义理解,为AI发展提供新路径[66]
她们估值840亿,刚发了第一个AI成果
量子位· 2025-09-11 01:58
公司估值与团队背景 - 公司尚未有具体产品但估值已达120亿美元[1][51] - 公司完成20亿美元种子轮融资由a16z领投英伟达等知名机构跟投[51] - 团队核心成员包括OpenAI前CTO Mira Murati、PPO算法开发者John Schulman等三分之二成员来自OpenAI[38][40][47] 研究核心发现 - 大语言模型推理结果难以复现的根源在于批次不变性缺失[4][12] - 浮点数非结合性导致计算顺序差异在Transformer多层迭代中被放大[13][16] - 解决方案需使RMSNorm、矩阵乘法和注意力机制具备批次不变性[16] 技术实现方法 - RMSNorm通过固定归约顺序分配核心处理批次元素确保一致性[18] - 矩阵乘法采用拆分2D块策略并编译统一内核配置牺牲20%性能换取确定性[19][21][22] - 注意力机制固定KV缓存分块大小(如256)自适应拆分数量保持归约顺序[23][24] 实验验证结果 - 使用批次不变性内核后1000次推理结果完全一致未使用时出现80次分化[26][27][28] - 确定性推理存在性能损失但处于可接受范围(如注意力内核优化后时间从55秒降至42秒)[30][31] - 在线强化学习中确定性推理使KL散度始终为0无需离线校正[34][35] 产品与战略方向 - 首代旗舰产品命名为Connection Machine致敬连接主义理念[7][52] - 公司承诺持续分享研究成果并与研究社区保持开放联系[6]
肖仰华教授:具身智能距离“涌现”还有多远?
36氪· 2025-06-27 11:30
人工智能技术发展路径 - 人工智能发展呈现两条清晰脉络:生成式人工智能(AIGC)和具身智能 前者聚焦机器认知能力 后者侧重感知与行动能力 [3][6][7] - 生成式大模型本质是让机器具备人类大脑的认知功能 包括语言生成和逻辑思考能力 具身智能则模拟人类身体感知与环境交互能力 [6][7] - 认知智能与具身智能的下一个里程碑是身心协同阶段 需实现身体与大脑的双向塑造 [3][8][9] 技术革命性特质 - 判断技术革命性的三大标准:基础性(如水电煤)、生产力指数级提升、对社会上层建筑的颠覆性影响 [9][10] - 生成式AI符合三大标准:成为新型基础设施 脑力工作效率提升百倍 渗透社会各领域 [10] - 具身智能对生产力的提升作用有限 80亿机器人产能仅相当于人口增长1-2倍 且受安全伦理制约 [11][12][13] 模型发展规律 - Scaling law主导生成式AI初期发展 依赖海量数据(万亿token)和大规模算力 [14] - 后训练范式崛起(如DeepSeek R1) 数据质量与训练策略取代规模成为关键 参数规模让位于算法设计 [15][16] - 行业大模型落地瓶颈在于数据 央国企需投入80%精力治理行业数据 高质量数据集建设成产业护城河 [18][19] 具身智能发展挑战 - 数据缺口显著:最大具身数据集仅百亿token 较语言模型差2个数量级 仿真/合成数据质量不足 [21][22] - 泛化能力受限:环境表达复杂性(如办公室场景需建模高维身体状态)导致数据采集困难 [31][32] - 突破路径包括增加训练量(虚拟试错) 借鉴人类类比/归纳机制 但需敬畏"不可言说"的交互复杂性 [33][34] 产业实现范式 - 三大技术路线并存:连接主义(神经网络)、符号主义(知识图谱)、行为主义(强化学习) 分别对应数据学习、知识学习和实践学习 [36][37][38] - 机器人应走场景化路径而非绝对通用 功能受限于物理构造 机械臂案例显示需任务与身体适配 [42][43] - 集约化需适度 扫地机器人通过附加刷头扩展功能 但强行植入多能力违背产业逻辑 [42][43] 技术风险与治理 - 物理伤害风险远低于认知风险 需警惕AI通过决策误导造成的系统性危害 [45][46] - 安全治理核心是发展AI监管师职业 建立"拔插头"机制 同时加强价值观对齐研究 [48][49] - 身体限制可成为安全保障 思想无边界才是最大风险源 [46][47] 行业影响与教育变革 - AI将冲击产业分工基础 未来工作意义转向体验而非谋生 物质极大丰富改变经济逻辑 [62] - 教育需破除内卷 在保留核心技能(写作/编程)基础上 培养AI难以替代的鉴赏/批判能力 [55][61] - 学科交叉与内心探索是重建价值体系方向 需拓展认知边界应对文明转型 [56][57]
肖仰华教授:具身智能距离“涌现”还有多远?|Al&Society百人百问
腾讯研究院· 2025-06-27 06:59
生成式AI与具身智能的发展路径 - 生成式AI以AIGC为代表,目标是让机器具备人类大脑的认知能力,包括语言生成和逻辑思考能力 [9] - 具身智能目标是让机器习得人类身体的感知和行动能力,实现与复杂世界的高效交互 [10] - 两条技术路线都是通往AGI的关键形态,下一个重要里程碑是身心协同阶段 [10] - 生成式AI已实现生产力成百上千倍提升,如合同审校、绘画制作等工作效率大幅提高 [13] - 具身智能对生产力的提升作用相对有限,可能仅相当于人口增长1-2倍的效果 [15] 技术革命的三重标准 - 基础性:技术需像水电煤一样成为基础设施 [13] - 生产力提升:需实现指数级效率提升,如AIGC极大提高论文生产力 [13] - 社会影响:需深度渗透社会各领域,改变上层建筑 [14] - 生成式AI完全符合这三重标准,是一场真正的技术革命 [14] - 具身智能对社会的影响力相对有限,更多是认知智能突破后的技术延伸 [16] 数据与模型的关系演进 - 业界观点:模型算法决定效果下限,数据决定上限 [20] - 大模型研发70-80%成本投入在数据上,剩余在算力运维和算法设计 [21] - 数据墙问题凸显:互联网公开高质量数据已接近枯竭 [22] - 后训练范式崛起:数据规模让位于质量,算力规模让位于算法设计 [18] - 数据不足可通过知识注入缓解,但培育高质量数据集仍是根本 [23] 具身智能的数据挑战 - 当前具身模型训练数据量仅百亿token级,与语言模型万亿级相差两个数量级 [24] - 数据采集面临个体体验表达困难和环境建模复杂双重挑战 [34][35] - 真机数据成本高昂,仿真数据质量有限,制约GPT时刻到来 [25] - 可能解决方案:穿戴设备普及形成动作轨迹数据 [26] - 训练策略调整:数据量不足时可增加训练量,借鉴人类泛化机制 [36][38] 产业落地逻辑 - 行业AI落地的关键在于行业数据治理和清洗 [21] - 央国企等大甲方应重点投入行业数据准备而非模型研究 [22] - 具身机器人应走场景化、任务化路径,而非追求绝对通用性 [48] - 身体构造决定功能边界,集约化需考虑物理可行性 [49] - 专用机器人价值明确,通用机器人是伪命题 [48] 技术范式演进 - 仍未跳出符号主义、连接主义和行为主义三大传统范式 [39] - 连接主义:模拟神经网络,处理感知任务 [40] - 符号主义:基于知识推理,处理认知任务 [40] - 行为主义:通过交互反馈进化,处理技能习得 [41] - 三种范式在完整AI解决方案中各有侧重 [43] 理性思维发展 - 人类能力分为知性、理性和感性三个维度 [28] - GPT4前主要训练知性能力,O1和DeepSeek R1开启理性能力 [29] - ToB应用需要专业理性思维,ToC需要共情感性能力 [31] - OpenAI布局完整:知性(GPT4)、感性(GPT-4o)、理性(O1) [31] - 国产大模型与国际差距主要在理性能力即知识应用水平 [29]