Workflow
量子位
icon
搜索文档
自变量王潜:具身智能是物理世界的独立基础模型|MEET2026
量子位· 2025-12-21 05:45
编辑部 整理自 MEET2026 量子位 | 公众号 QbitAI 具身智能模型是物理世界的基础模型,独立于、平行于语言模型、多模态模型等虚拟世界的模型。 这一判断背后,首先是对物理世界与虚拟世界本质差异的重新认识。 语言模型和多模态模型所面对的,是高度可复现、低随机性的符号世界;而机器人所处的物理世界,则充满连续性、随机性、不完全可观测性 以及大量与力、接触和时序强相关的过程。 沿用以语言和视觉为中心建立起来的建模范式,本身就存在结构性的错位。 也正因为如此,自变量机器人在实践中选择了一条更长期的路线:不把具身智能当作应用层问题,而是从模型架构、数据范式、推理方式乃至 硬件形态上,系统性地重做一套"物理世界的智能底座"。 为了完整体现王潜的思考,在不改变原意的基础上,量子位对演讲内容进行了编辑整理,希望能给你带来更多启发。 过去一年,具身智能领域反复被问到一个问题:它到底只是多模态模型的一个应用,还是一种全新的基础模型? 对此, 自变量机器人创始人兼CEO王潜 表示: MEET2026智能未来大会是由量子位主办的行业峰会,近30位产业代表与会讨论。线下参会观众近1500人,线上直播观众350万+,获得了主 ...
LeCun离职前的吐槽太猛了
量子位· 2025-12-21 05:45
一水 鹭羽 发自 凹非寺 量子位 | 公众号 QbitAI 好一个一吐为快! 年底就要正式离开Meta的LeCun,这下真是啥都不藏了。 不看好大语言模型能通往AGI,他就言辞犀利地指出: 通往超级智能之路——只需训练大语言模型,用更多合成数据训练,雇佣成千上万的人在后训练中"教育"你的系统,发明强化学习的新 花招—— 我认为这完全是胡说八道。这根本行不通 。 看不惯即将成为"前任"的Meta的封闭作风,他也直言不讳: Meta正在变得更加封闭……FAIR被推动去从事一些比传统上更偏向短期的项目。 而且还顺带剧透,自己将要创办的新公司仍会继续坚持开放。 以上内容来自LeCun最新参与的一档播客节目。在接近两小时的对谈中,他主要回答了: 总结起来就是,不管是在Meta接近12年的研究经历,还是接下来要创办的新公司,抑或是未来想要实现的AGI,通通都在这里了。 为什么硅谷对扩展语言模型的痴迷是一条死路? 为什么AI领域最难的问题是达到狗的智能水平,而非人类的智能水平? 为什么新公司选择构建在抽象表示空间中进行预测的世界模型,而非直接生成像素的模型? …… 人生下一程:创办新公司AMI 告别工作十二年的老东家,Le ...
为什么这篇谷歌论文被称为「Attention is all you need」V2
量子位· 2025-12-21 05:45
失忆的巨人 非羊 发自 凹非寺 量子位 | 公众号 QbitAI 从小老师就爱说"好记性不如烂笔头",那么我们为什么不给有"记忆缺陷"的大模型配一个小本本记上总结归纳的要点呢? 继著名的"Attention Is All You Need"之后,谷歌新论文再度引爆圈内: 我们可能忽略了AI的"另一半大脑" 。 这篇文章题为 嵌套学习:深度学习架构的幻象 (Nested Learning: The Illusion of Deep Learning Architectures) 在圈内被誉为是"Attention is all you need"V2 你是否曾对AI感到一丝"恨铁不成钢"?你刚刚在对话中详细解释过一个概念,三句话之后它就可能完全遗忘,仿佛从未发生。ChatGPT们上知 天文下知地理,却学不会你今天刚教它的一件小事。 这并非偶然的Bug,而是当前所有大型语言模型 (LLMs) 共同的"先天疾病"—— 数字失忆症 。 为了"治疗"它,过去十年,整个行业几乎只遵循一条黄金定律: 把模型做得更深、更大 。我们不断堆叠Transformer层,追逐万亿参数,相 信"规模即智能",期待着记忆相关的能力也能" ...
让大模型不再过度思考!上海AI Lab后训练新范式重塑CoT,推理又快又好
量子位· 2025-12-21 02:00
RePro团队 投稿 量子位 | 公众号 QbitAI 这篇论文将推理的过程视为模型内部状态的优化过程,从而对如何重塑大模型的CoT提供了一个全新视角: 核心观察:推理即优化 RePro 基于这样一个核心思想:将模型的推理轨迹 (Trajectory) 看作是在损失曲面上寻找最优解的路径。 然而,"长思考"并非总是完美的。我们常发现模型会陷入 "过度思考" (Overthinking) 的陷阱:为了得出一个简单的结论,模型可能会生成 数千个冗余Token,甚至在错误的路径上反复横跳 (Backtracking) 。这不仅浪费了宝贵的算力,还增加了推理延迟。 RePro的三大"矫正"机制 近年来,随着o1、DeepSeek-R1等模型的爆发,Long Chain-of-Thought (Long CoT) 已成为提升LLM复杂推理能力的标配。 如何让模型在"深思熟虑"的同时,保持"思维敏捷"? 基于上述视角,RePro设计了一套过程奖励机制,直接嵌入到RLVR (如PPO,GRPO) 流程中。 近日,上海人工智能实验室的研究团队提出了一种全新的后训练范式—— RePro (Rectifying Process- ...
库克提拔复旦校友掌舵苹果基础模型!庞若鸣走后涨薪止血,谷歌旧部占据半壁江山
量子位· 2025-12-21 02:00
衡宇 发自 凹非寺 量子位 | 公众号 QbitAI 庞若鸣被扎克伯格天价挖去Meta后,谁在执掌苹果大模型团队? 团队的权力交接,其实比外界想象中要快,也要安静得多。 答案很快浮出水面。接手这支团队的人,是庞若鸣的老搭档: Zhifeng Chen 。 对Zhifeng Chen来说,这算赶上了最好的时候,也算赶上了最坏的时候。 Zhifeng Chen接过的这根交接棒,不可谓不烫手。 Zhifeng Chen是谁? 这和庞若鸣的职业路径高度相似,都是在谷歌待了十几年,然后转投苹果麾下。 一方面,庞若鸣离开之后,苹果内部一边重组AI权责,一边启动了针对核心研究人员的留人方案,其中 最直接的动作就是涨薪 。 另一方面,如大家所知,在这一波AI浪潮里,苹果的动作无论从成效还是速度来说,都太过不尽如人意。 今年,Zhifeng Chen离开待了19年又7个月的谷歌,加入苹果。 庞若鸣今年夏天离开苹果后,Zhifeng Chen开始直接领导苹果基础模型团队, 直接管理二十多名下属 。 但Chen和庞若鸣两人世界线的最初交集,早在两人加入谷歌之前。 2000年,Chen从复旦大学计算机科学专业毕业,开启了在普林斯顿大 ...
清华孙茂松:对工业界而言,大厂可以Scaling,其他玩家重在垂直应用 | MEET2026
量子位· 2025-12-21 02:00
编辑部 整理自 MEET2026 量子位 | 公众号 QbitAI 涌现,AI沙场如今兵家争锋所期待出现的「境界」。 自从Scaling Law为模型带来惊人的能力增长后,几乎所有模型厂商都被卷入了一场无止境的FOMO,没人敢停下来。 我觉得大模型最有魅力的地方,在于它是非线性变化,代表着极大的不确定性,但一旦出现性能涌现就将远超想象。 在量子位MEET2026智能未来大会上,清华大学人工智能研究院常务副院长,欧洲科学院外籍院士 孙茂松 如此感慨。 只要算力还能堆、参数还能涨,就不能停止烧钱。 然而,在Scaling的边际成本越来越高的背景下, 万一最后发现这是条死胡同,投入全打水漂了怎么办? 孙茂松的建议是,可以「致广大」,但更要「尽精微」。 就企业界而言,少数实力极其雄厚的团队,可以尝试在「致广大」方向上继续跟随国际前沿;但绝大多数AI公司,都应该把主要精力放在「尽 精微」上。 为了完整呈现孙茂松的思考,在不改变原意的基础上,量子位对演讲内容进行了整理编辑,希望能提供新的视角与洞察。 MEET2026智能未来大会是由量子位主办的行业峰会,近30位产业代表与会讨论。线下参会观众近1500人,线上直播观众35 ...
对话文远知行韩旭:中国真正的L4只有3家,马斯克不上激光雷达干不过Waymo | MEET2026
量子位· 2025-12-20 11:19
他的治下, 文远知行 现在是美股港股双料上市的"Robotaxi第一股"。 但与 量子位总编辑李根 的对话中,韩旭对创业8年的评价却出人意料: 我没空看成绩单。 他在忙什么?在 忙300~500万年薪广招英才 、在 忙Robotaxi海外跑马圈地 、在 忙一段式端到端量产的"搏二兔" : 编辑部 整理自 凹非寺 量子位 | 公众号 QbitAI 时隔六年再次登上 量子位MEET智能未来大会 , 韩旭 已不再是那个需要向投资人证明"自动驾驶不是骗局"的创业者。 时过境迁,今天确实可以搏二兔了。 但对同样"搏二兔"大搞Robotaxi的特斯拉,他给出了近乎"打脸"的预言; 最近Robotaxi先行者Waymo的估值,已经达到1000亿美元。这也带动行业内"L4公司"遍地开花,对此,韩旭又毫不迟疑划出了不容模糊的技 术壁垒,并直言: "国内真正能纯无人运营的只有三家"。 从L4到L2++,这位亲历行业从"骗局论"走到规模化落地的自动驾驶一线"老兵",在独家对话中给出了当下自动驾驶的一线洞察,以及未来竞争 的生死线。 从"骗子公司"到无人化规模落地 李根:太高兴了,韩旭又再一次回到MEET智能未来大会,现在成为全球R ...
潞晨尤洋:日常办公没必要上私有模型,这三类企业才需要 | MEET2026
量子位· 2025-12-20 08:02
编辑部 整理自 MEET2026 量子位 | 公众号 QbitAI 对企业来说,如何判断大模型究竟是真的有用,还是只是噱头? 对此, 潞晨科技创始人兼董事长,新加坡国立大学校长青年教授尤洋 给出了他的判断框架: 有三类企业需要行业模型或者私有模型:传统大型企业、有海量数据的中小型企业,以及颠覆行业的新兴公司。 具体落地方面,尤洋给出的判断标准也很明确。 首先, 如果只是业务只涉及日常办公,或主要处理文本数据,没必要上私有模型 。 直接调用现成的大模型API,或RAG+API,足以覆盖大多数需求。 但 如果企业本身拥有海量多模态数据,或对数据隐私有要求,构建私有模型是比较好的选择 。 为了完整呈现尤洋的思考,在不改变原意的基础上,量子位对演讲内容进行了整理编辑,希望能提供新的视角与洞察。 MEET2026智能未来大会是由量子位主办的行业峰会,近30位产业代表与会讨论。线下参会观众近1500人,线上直播观众350万+,获得了主 流媒体的广泛关注与报道。 核心观点梳理 大模型的应用肯定不仅限于聊天机器人或者编程助手,未来大模型在千行百业里边落地,才能产生它最大的价值。大模型的价值在很多场 景还没有真正发挥出来。 有 ...
ChatGPT文风,原产地肯尼亚
量子位· 2025-12-20 08:02
一水 发自 凹非寺 量子位 | 公众号 QbitAI ChatGPT文风奇怪的原因 (俗称AI味儿很浓) 找到了! 一点进去才知道,原来这位朋友连续精心撰写的好几篇文章都被退稿了,而且理由还都是"太像ChatGPT"。 肯尼亚作家:都是跟我们学的。 就在最近,一位肯尼亚作家的"控诉贴"登上Hacker News热榜—— 我是肯尼亚人。不是我的写作风格和ChatGPT一样,而是ChatGPT写作风格和我一样。 emmm……一想到自己从小接受的教育都是"文章必须像一座完美的大厦"、"你必须展现丰富的词汇量",而现在却被误认为出自AI,这位朋友 实在忍不住发出怒吼: 对于那些热衷于侦查数字虚假性的侦探们,我想说:朋友,欢迎来到肯尼亚教室、会议室或公司内部Teams聊天室里一个典型的星期 二。 你们所认为的机器指纹,实际上却是我们教育的化石记录 。 而且很早就有消息指出,为了节省人力成本,很多AI模型厂商会把RLHF这类工作交给非洲人,所以模型的很多用语习惯也会偏向非洲那边。 所以我们有理由怀疑,难道ChatGPT真是从肯尼亚"偷师"写作技巧的? 咱这就火速围观一下—— "ChatGPT无意中在模仿我们" 事情是这样 ...
CMU教授万字反思:西方式AGI永远到不了
量子位· 2025-12-20 07:38
闻乐 发自 凹非寺 量子位 | 公众号 QbitAI "不是AGI还没到,而是永远到不了。" CMU(卡内基梅隆大学)教授、艾伦人工智能实验室研究员 Tim Dettmers 从硬件瓶颈、资源成本、现实应用三重维度论证: 第一个是信息移动成本 。 比如有效计算需要平衡 全局信息传到局部 和 局部信息整合 ,可信息移动的成本会随距离呈平方级上升;芯片缓存也能说明问题,L2、L3缓 存比L1 大,但却因物理位置更远而速度更慢。 为什么AGI从一开始,就是个违背物理规律的幻想工程? 一篇长文,指出 GPU性能峰值停在2018年,机架级优化2027年耗尽潜力,AI每提升1%的能力,资源消耗要翻好几倍 …… 核心观点 AGI的讨论都在回避"计算的物理枷锁" 智能不是飘在天上的想法,而是得靠电脑、芯片这些实实在在的东西算出来,而这些东西都得遵守物理规律。 计算从不是抽象概念,所有智能都要扎根物理现实。 这也是Dettmers反驳AGI的核心,很多人在聊到AGI时总把它当成抽象的哲学概念,但很多人忽略了硬件实现,而硬件必然受到物理规律限 制。 现在芯片里的晶体管越做越小,虽然能降低计算成本,但内存反而越来越贵,现在芯片上几 ...