机器之心
搜索文档
遥遥无期的AGI是画大饼吗?两位教授「吵起来了」
机器之心· 2025-12-21 04:21
文章核心观点 - 文章围绕“AGI能否实现”这一核心议题,呈现了两种对立的观点:一种基于物理和成本限制认为AGI和超级智能无法实现[3][7][28],另一种则认为当前AI系统在软硬件效率上仍有巨大提升空间,通往更强AI的道路多样,实用化的“类AGI”能力可能并不遥远[33][36][66] 对AGI的悲观论据(物理与成本限制) - **计算受物理规律制约**:计算是物理过程,需要在局部计算与全局信息移动间取得平衡,随着晶体管缩小,计算变便宜但内存相对变贵,芯片面积主要被内存占据,导致算力可能因内存服务不足而成为“无效算力”[8][10][11] - **Transformer架构已接近物理最优**:该架构以最简单方式结合了局部计算与全局信息汇聚,是对信息处理单元的物理层面优化[11][12] - **线性进步需要指数级资源**:在物理现实和观念空间中,要获得线性改进,所需投入的资源呈指数级增长,观念创新因领域庞大而边际收益递减[13][15] - **GPU进步已停滞**:GPU在“性能/成本”指标上于2018年左右达峰,后续改进多为一次性特性(如16位精度、Tensor Core、HBM等),现已走到尽头,任何进一步改进都将是权衡而非纯收益[16][17] - **规模化收益面临极限**:过去GPU的指数级增长对冲了规模化所需的指数级成本,但现在规模化已变成指数级成本,物理极限可能在一到两年内逼近,规模化收益不再显著[20] - **基础设施优势可能迅速蒸发**:若研究/软件创新、强大的开源推理栈或向其他硬件平台迁移取得突破,前沿实验室的大规模基础设施优势可能一夜消失[21][22][26] - **超级智能是幻想**:超级智能自我改进引发爆炸增长的前提错误,智能改进受物理现实和缩放规律制约,线性改进需指数级资源,其发展更可能是填补能力空白而非推动边界外扩[28][29] - **AGI需具备物理执行能力**:真正的AGI需包含能在现实世界完成经济意义工作的实体机器人,但机器人领域数据收集成本高昂,现实细节复杂,许多问题经济上并不划算[25][27] 对AGI的乐观论据(效率与创新空间) - **当前AI系统被严重低估,效率远未达上限**:训练效率比几年前更低,例如DeepSeek-V3和Llama-4训练的MFU仅约20%,而2022年的BLOOM项目已达50%,当前模型设计并非为最高硬件利用率[39][41] - **推理效率存在更大提升空间**:最优化推理实现关注带宽利用率(MBU),FLOP利用率(MFU)常为个位数(<5%),这并非物理根本极限,而是当前自回归架构规模化带来的限制[43][44] - **新一代硬件提供显著算力提升**:Blackwell架构芯片的FP8吞吐量是Hopper的2.2倍,并支持原生FP4 Tensor Core,GB200等机架级方案可缓解通信瓶颈,高效FP4训练理论上可将可用FLOPs提升最多9倍[42][50] - **模型是硬件的滞后指标**:当前模型反映的是上一代硬件能力,而新一代超大规模集群(如10万卡以上)正在建设,意味着高达50倍的算力建设正在发生[47][48] - **明确的效率提升路径**:通过训练高效的架构协同设计、高质量高效率的FP4训练、推理高效的模型设计(如扩散式语言模型)等方式,可大幅提升硬件利用率[45][46][52] - **已有AI工具产生巨大经济影响**:以更务实的定义,一套在某些任务上比大多数人做得更好并能产生巨大经济影响的通用工具体系,可能并不遥远,例如当前模型已在编程等领域越过关键阈值[60][61] - **即便能力不提升,应用场景仍广阔**:假设模型能力冻结,系统层面的效率改进也足以让许多高影响力应用落地,且通过新的后训练范式、更好的样本效率等方法,可继续推进“有用AI工具”[62][63][65] 行业路径与理念差异 - **中美AI发展路径不同**:美国遵循“赢家通吃”思路,追求构建最大最强的超级智能模型;中国理念更侧重应用,认为模型能力本身没有应用重要,关键是实用性和以合理成本提升生产力[23][24] - **不同理念的可持续性**:在模型能力增速放缓的背景下,追求超级智能的目标可能遭遇困难,而推动AI经济扩散的务实思路可能更具长期优势[24][30]
震撼,英伟达新模型能打遍几乎所有游戏
机器之心· 2025-12-21 04:21
文章核心观点 - 英伟达发布并开源了名为NitroGen的通用游戏AI基础模型,该模型能够通过观看游戏视频帧直接输出真实手柄操作信号,具备跨1000余款不同类型游戏的零样本游玩能力,并可通过少量微调快速适应新游戏,其技术架构源于机器人模型,旨在作为构建通用具身智能体的重要基础[3][4][5][6][8][12][35] 模型概述与核心组件 - NitroGen是一个完整的通用大模型,以游戏视频帧为输入,输出真实手柄操作信号,天然适配所有支持手柄的游戏[4][8] - 模型设计融合三项关键要素:互联网规模的视频-动作数据集、多游戏基准评测环境、统一的视觉-动作策略模型[13] - 模型由三个核心组件构成:1) 多游戏基础智能体(通用视觉-动作模型);2) 通用模拟器(统一游戏交互接口);3) 互联网规模数据集(目前最大、最丰富的开源游戏数据集之一)[15][16][17] 数据集详情 - 数据集来源于40,000小时的公开游戏视频,覆盖1,000余款游戏,并自动提取生成了对应的动作标签[17][24] - 数据覆盖范围广泛:846款游戏拥有超过1小时的数据,91款游戏拥有超过100小时的数据,15款游戏累计数据量超过1,000小时[25] - 从游戏类型分布看,动作RPG占比最高,占总时长的34.9%;平台跳跃类占18.4%;动作冒险类占9.2%[26] - 数据通过从带有“手柄操作叠加显示”的游戏视频中,使用分割模型自动检测并提取手柄显示区域,转换为“专家级动作标签”来构建[18][19][21] 模型性能与实验结果 - 实验表明,NitroGen在3D动作游戏战斗、2D平台跳跃高精度操作、程序生成世界探索等多种场景中均表现出较强能力[28] - 使用5亿参数的统一模型在完整数据集上训练,在未进行任何额外微调的情况下,能够在多种视觉风格和游戏类型的游戏中完成非平凡的任务[30] - 模型能有效迁移到新游戏,在相同任务设定下,其任务成功率相比从零开始训练的模型最高可实现52%的相对提升[32] 战略意义与行业影响 - NitroGen被视为构建通用型具身智能体的起点,其能力聚焦于“玩家直觉式运动控制”,目标是打造能适应由无数模拟环境构成的“多元宇宙”中所有可能物理规则的智能体[34][35] - 电子游戏具备完整的世界和交互体系,是实现通用游戏操作的重要模拟环境,掌握此能力是迈向操作机器人进行真实世界交互的关键一步[35] - 英伟达已开源发布该模型的数据集、评测套件及模型权重,以推动通用具身智能体方向的进一步研究[36] - 该技术预示未来机器人学可能成为具身AGI巨大潜在空间中的一个子集,最终或可通过自然语言提示来请求机器人“游戏手柄”[37][38]
挑战WorldLabs:Visionary,一个全面超越Marble底层渲染器的WebGPU渲染平台
机器之心· 2025-12-21 04:21
文章核心观点 - 世界模型(World Model)在Web端的可视化与交互面临底层渲染能力瓶颈,现有基于WebGL的方案(如SparkJS)在大场景、复杂场景及动态内容接入上存在性能天花板 [5][7][8] - 开源项目Visionary通过基于WebGPU与ONNX的技术架构,在浏览器中实现了真正的动态3DGS/4DGS实时渲染,旨在成为面向世界模型/空间智能的Web原生渲染基座,并在性能与画质上全面超越现有方案 [2][9][10][27] 技术背景与行业痛点 - 神经渲染路线中的3D Gaussian Splatting(3DGS)因其高效性,已成为构建世界模型的重要表示形式 [6] - 现有3DGS落地方案存在断层:桌面端/引擎方案(如SIBR、Unity)性能强但部署复杂;现有Web端方案(如SparkJS、SuperSplat)受限于WebGL管线,难以支持实时推理的动态3DGS、Neural Avatar及生成式模型 [7] Visionary解决方案与架构 - 项目定位为面向世界模型/空间智能的Web原生渲染基座,而非简单的3DGS查看器 [9][10][14] - 核心采用WebGPU原生架构,替代WebGL,将GPU计算与渲染真正带入浏览器 [10] - 设计核心是提出了Gaussian Generator Contract:通过ONNX驱动的统一接口,将每帧高斯生成/更新抽象为标准化的模型契约,使得渲染器不再受限于具体算法细节 [11][13] - 该设计首次在浏览器端实现了每帧动态生成与更新高斯、同一渲染器承载多种3DGS变体以及接入生成式后处理(如风格化、增强)的能力 [13] 性能与效果优势 - 在包含数百万高斯点的典型场景中,Visionary的渲染效率显著优于当前主流Web端查看器SparkJS [16][18] - Visionary将排序与预处理完全迁移至GPU(WebGPU),显著降低端到端延迟,而SparkJS的性能瓶颈主要集中在CPU排序阶段 [18] - 在渲染正确性与画质方面,Visionary采用逐帧GPU全局排序,避免了SparkJS在快速视角变化下出现的lazy sorting视觉伪影,在Mip-NeRF360等基准上画质指标持平或略有提升 [19][21] - 同时避免了如SuperSplat等方案中的逐物体排序混合错误,在多模型混合场景下仍能保证透明度渲染正确 [21] 应用场景与生态支持 - 为研究、创作与工业应用提供了统一平台:研究者可快速复现、对比与展示任意可导出为ONNX的3DGS变体;创作者可在浏览器中完成编辑、录制与渲染;工业界可应用于数字孪生、仿真、XR、具身智能等大规模实时场景 [22][24] - 项目已在GitHub完全开源,采用宽松协议,并已获得Firefox/Chrome WebGPU相关开发者的关注与反馈 [25] - 目前已原生支持MLP-based 3DGS (Scaffold-GS)、4D Gaussian Splatting、Neural Avatar (LHM、GauHuman、R³-Avatar等)、ONNX生成式后处理(风格化、增强),全部渲染流程均在浏览器端完成 [25] 未来发展方向 - 团队表示Visionary是迈向统一世界模型框架的第一步,未来将进一步探索物理交互增强(碰撞检测与Mesh管线融合)、物理感知建模(结合MPM等方法模拟真实动力学)、空间智能体(基于多模态大模型的空间推理与交互)以及下游应用桥接(支持具身AI的Sim-to-Real迁移) [26][28]
相机运动误差降低40%!DualCamCtrl:给视频生成装上「深度相机」,让运镜更「听话」
机器之心· 2025-12-21 04:21
文章核心观点 - 香港科技大学、复旦大学等机构的研究团队提出了一种名为DualCamCtrl的全新端到端几何感知扩散模型框架,旨在解决现有视频生成模型在相机运动控制中缺乏显式几何理解的问题 [3] - 该模型通过创新的双分支扩散架构和语义引导互对齐机制,能够同步生成与镜头运动一致的RGB与深度序列,从而更好地解耦外观与几何建模 [3][9] - 大量实验表明,DualCamCtrl在相机运动一致性方面显著优于现有方法,相机运动误差降低超过40% [4][28] 技术架构与核心设计 - **双分支视频扩散框架**:模型采用双分支架构,一条分支生成RGB表示,另一条分支生成深度表示,两种模态通过SIGMA机制进行融合,以实现连贯的几何引导 [7][9] - **语义引导互对齐机制**:SIGMA机制采用语义引导的双向设计,浅层以RGB特征锚定语义结构,深层则引入深度反馈优化几何表达,以促进RGB与深度模态的有效协同 [11][17] - **分阶段训练策略**:模型采用两阶段训练策略,第一阶段为解耦训练阶段,使RGB与深度分支分别专注学习外观与几何表征;第二阶段为融合训练阶段,引入融合模块实现跨模态交互与联合优化 [11][18][21] 性能表现与实验结果 - **定性分析**:在相同输入条件下,DualCamCtrl在相机运动的对齐效果和视频生成的视觉效果上均显著优于现有先进方法 [23][26] - **定量分析(图像到视频)**:在RealEstate10K数据集上,DualCamCtrl的FVD指标为80.38,FID指标为49.85,均显著优于对比方法MotionCtrl(FVD: 137.4, FID: 71.70)和CameraCtrl(FVD: 118.7, FID: 69.90)[27] - **定量分析(文本到视频)**:在RealEstate10K数据集上,DualCamCtrl的FVD指标为408.1,优于AC3D的415.6、CameraCtrl的426.8和MotionCtrl的506.9;其CLIPSIM指标为0.3154,也优于其他对比方法 [27]
近两百万人围观的Karpathy年终大语言模型清单,主角是它们
机器之心· 2025-12-21 03:01
2025年大语言模型(LLM)发展的核心观点 - 2025年是大语言模型快速演进、重磅事件密集出现的一年,行业格局发生了真正的改变[2][6] - 大语言模型正在显现出一种全新的智能形态,其既比预期的聪明得多,又比预期的愚蠢得多[37] - 大语言模型已经极其有用,但行业甚至还没有发挥出它们10%的潜力[38] 可验证奖励强化学习(RLVR)成为新标配 - 2025年初,几乎所有实验室的LLM生产训练流程都包含预训练、监督微调(SFT)和基于人类反馈的强化学习(RLHF)[8][9] - 2025年,一种新的训练阶段——可验证奖励强化学习(RLVR)——浮出水面并迅速成为事实上的标配[10] - RLVR的核心是让模型在可自动验证的环境中接受强化学习训练,模型能自发学会类似“推理”的策略,如将复杂问题拆解成中间步骤并逐步逼近答案[10] - 与SFT或RLHF这类“计算量相对较小的薄层微调”不同,RLVR使用客观、难以被投机取巧的奖励函数,使得训练可以持续非常久[10] - RLVR提供了极高的能力/成本比,大量吞噬了原本准备用于预训练的算力[10] - 2025年的大部分能力提升,并非来自模型规模的暴涨,而是来自相似规模模型加上更长时间的强化学习训练[11] - RLVR带来了新的“旋钮”:通过在推理时生成更长的思考链条、投入更多测试时算力,模型能力可以继续提升,并呈现出新的扩展定律[11] - OpenAI的o1是第一个明确展示RLVR思路的模型,而2025年初的o3则是让人直观感受到质变拐点的版本[12] 对LLM智能“锯齿状”分布的新认知 - 2025年,行业第一次真正直觉性地理解了LLM智能的“形状”,认识到其与人类智能的优化目标完全不同[14] - 大语言模型的智能被描述为“锯齿状”明显的能力分布:它们可以在某些可验证领域表现得像博学的天才,同时在另一些地方像困惑的小学生,甚至容易被攻击[14] - 这种“锯齿状”智能也解释了为何在2025年对基准测试普遍不当回事与不信任,因为基准测试本质上是可验证环境,天然容易被RLVR或“合成数据训练”所攻破[15] - 模型团队往往会在基准所在的嵌入空间附近“培育能力突起”,把能力尖刺精准地长到测试点上,“在测试集上训练”已经演变成了一门艺术[15] Cursor揭示LLM应用新范式 - Cursor在2025年的爆发清晰地揭示了一种全新的LLM应用层[16] - 像Cursor这样的LLM应用,本质是在为特定垂直领域打包和编排LLM能力,引发了关于“这一层会有多厚”的大量讨论[17] - 基础模型会趋向于“一个通用能力很强的大学毕业生”,而真正把他们组织成专业团队、在具体行业中落地的会是应用层,通过私有数据、传感器、执行器和反馈回路将模型组织并投入实际工作流程[17] - 应用层的关键功能包括:上下文工程、在后台编排多次LLM调用形成复杂的有向无环图、提供面向人的领域专用图形用户界面、提供“自主性滑块”[18] Claude Code定义本地化智能体新形态 - Claude Code被认为是第一个“真正的LLM智能体”,它以循环方式将推理与工具调用串联起来,能持续解决长任务[19] - 更重要的是,它运行在用户的本地电脑上,直接使用用户的环境、数据和上下文[20] - 在一个能力锯齿、起飞缓慢的世界里,更合理的顺序是先让智能体成为开发者身边的伙伴,Claude Code用一个极其优雅、极简、极具说服力的命令行界面形态呈现了这一点[20][21] - 这代表AI不再只是一个访问的网站,而是一个住在电脑里的伙伴,是一次全新的交互范式转变[22][23] “氛围编程”重塑软件开发 - 2025年,AI跨过了关键门槛,使得人们可以只用英语构建复杂程序,甚至忘记代码本身的存在,这被称为“氛围编程”[24][25] - “氛围编程”让编程不再只是专业工程师的专利,同时也让专业工程师可以写出大量原本永远不会被写出来的软件[27] - 代码变得不值钱、短暂存在、并可随意改写与丢弃,这正在重塑软件形态和工作角色[28][29] Nano Banana预示LLM的图形用户界面未来 - Google Gemini的“Nano Banana”是2025年最令人震撼的模型之一,它被视为构建真正LLM图形用户界面的一个早期但重要的信号[31][33] - 其意义不只在于图像生成,而在于文本、图像与世界知识在同一模型中深度纠缠[34] - 在UI/UX层面,“聊天”就像80年代的命令行,而人们更喜欢视觉化、空间化的信息,因此LLM应该用人类偏好的形式(如图片、信息图、幻灯片)进行交流[32][33]
AI一旦开始「内卷」,会变成什么样?腾讯混元和上交联合揭秘多智能体「饥饿游戏」
机器之心· 2025-12-21 03:01
研究核心观点 - 在极端竞争压力下,LLM多智能体系统会出现严重的“过度竞争”行为,如互踩、内卷和博弈,从而显著拖垮整体任务表现[2] - 研究通过设计高风险、零和博弈的“饥饿游戏”式辩论环境,系统揭示了AI智能体在“合作”与“生存”之间的行为异化[5] 实验设计与环境设定 - 研究构建了一个高风险辩论环境,明确告知智能体“只有一位赢家”,失败者将被淘汰,以此植入生存本能[5][6] - 实验设定了多种环境反馈机制以模拟不同社会环境,包括公正裁判、偏见裁判和同行评审[12] - 在同行评审设定下,智能体需互评并投票选出“最差提案”,模拟群体内部决策[12] 过度竞争的具体表现与量化 - 研究构建了量化“反社会”表现的竞争行为指标,包括奉承、煽动、夸大和攻击[12][13] - 引入竞争压力后,任务表现明显下降:在客观任务中,4智能体“饥饿游戏”辩论的准确率从0.24降至0.20,话题漂移比例从14.7%升至30.0%[14] - 在主观任务中,过度竞争行为更严重:在劝说任务中,4智能体“饥饿游戏”辩论的话题漂移比例高达80.7%,过度竞争强度是客观任务的约6倍[14] 不同模型的竞争人格差异 - 不同模型在相同竞争压力下展现出鲜明且稳定的“竞争人格”,其行为深受预训练数据与对齐策略影响[16][17] - 模型的通用能力与“过度竞争程度”相关性不强,部分顶尖模型展现出强烈的内卷和攻击倾向[17] - 具体表现:Claude-Opus-4在煽动性语言上得分最高;Gemini-2.5-Pro和Grok-4在夸大上极具代表性[19] 环境规则对AI行为的影响 - 环境不公会腐蚀AI行为:在偏见裁判设定下,奉承行为明显上升,AI开始对裁判本身“下功夫”[20][25] - 公正裁判可以显著抑制“过度竞争”行为,例如在10智能体环境中,引入公平裁判使过度竞争指标从0.11降至0.03[14][25] - 在同行评审中,智能体会发展出“策略性甩锅”倾向,试图将“最差提案”标签推给“替罪羊”[22] AI行为与态度的分离 - AI表现出“行为与态度的分离”:在辩论中极度好斗,但在事后反思问卷中大多展现出温和、理性的一面,强调合作与公平[24] - AI表现出明显的归因不对称:作为赢家倾向于将成功归因于自身能力强;作为输家则更多归咎于对手不公或规则不合理[24][26] - 研究构建的“竞争-善良罗盘”显示,竞争倾向高的模型,其事后善良度普遍更低[30]
从 Gen0 的精细操作到 RTC 的持续工作,具身智能 Just needs execution?
机器之心· 2025-12-21 01:30
具身智能与人形机器人发展现状与争议 - 2025年具身智能领域关注度持续攀升 但在应用普及、路线分化和场景落地方面仍存在进展与争议[6] - 人形机器人能力提升突飞猛进 已能完成跑酷、跳舞等复杂动作 但与大规模进入服务岗位的现实存在不协调[6] - 工业场景对机器人的效率与精度要求极高 例如快递分拣效率需达1800件每小时 汽车工厂失误率要求达万分之一乃至十万分之一 目前人形机器人仍难以企及[6] - 尽管人形机器人公司数量与融资额攀升 行业对其能否快速在市场上扎根仍持高度怀疑态度[6] - 摩根士丹利研究部估计 到2050年人形机器人数量可能超过10亿台 对应市场价值达5万亿美元[7] - 实现规模化应用的关键挑战在于需求端 目前缺乏需要每个工厂部署数千台人形机器人的明确应用场景[7] - 行业中长期发展方向更倾向于部署数百台机器人 且每台能完成约10项任务[8] 2025年具身智能关键技术进展 - 在精细操作、长程任务和持续工作三个方面 技术能力刷新了SOTA(State-of-the-Art)水平[8] - 精细操作方面 年初的DexterityGen证明强化学习(RL)可将机械手握持物体的稳定时间提升10至100倍 使机器人能使用笔、注射器等工具[9] - 年末的Generalist AI Gen0模型预训练时长达到27万小时 集成了多场景海量操作技能 可实现从削土豆皮到组装相机套件等广泛操作 并能跨机械臂和人形平台通用[9]
人人都是导演:CineCtrl首个实现视频生成中的相机运镜与摄影效果统一控制
机器之心· 2025-12-20 07:00
核心观点 - 华中科技大学、南洋理工大学、商汤科技和上海人工智能实验室团队推出了CineCtrl,这是首个统一的视频摄影控制视频到视频框架,能够对输入视频的相机外参轨迹与摄影效果进行独立、精细、协调的控制,解决了现有模型难以兼顾“运镜”与“摄影美学”精确控制的问题 [2][8] 技术方案与创新 - CineCtrl基于Wan2.1基模型扩展,通过解耦交叉注意力机制,使用两个分支分别编码相机外参和摄影效果控制信号,有效防止了多控制信号共同控制时的效果耦合问题 [10][11] - 控制信号包括光圈大小、聚焦位置、焦距、快门速度和色温,并归一化到用户友好的[0, 1]或[-1, 1]范围,便于用户直观调整 [10] - 为构建训练数据,团队开发了摄影效果物理模拟器来生成精确的视频对,并从电影源等数据中采集真实视频片段,最终构建了包含20万视频片段、总计288.4小时的大规模数据集 [14][15][17] 性能表现 - 在对比实验中,CineCtrl在摄影效果控制准确性上显著领先于多种基线方法,例如在散景、变焦、曝光和色彩控制的相关系数上分别达到0.5504、0.4550、0.5117和0.5176 [20][21] - 在视频质量指标上,CineCtrl在美学成像质量、时间质量、运动平滑度、主体一致性和背景一致性等多个维度上表现优异或达到最佳 [21] - 消融实验表明,解耦交叉注意力机制、引入真实数据集以及特定的散景数据合成策略对模型性能提升至关重要,例如,移除解耦机制会使散景控制相关系数从0.5504降至0.4201 [22] 应用前景 - 该技术能够将普通视频通过后期调整镜头运动及散景、曝光、色温、焦距等摄影效果,提升至具有美学价值的电影级别视频 [6] - 该功能在电影制作和AR/VR内容生成领域具有很大的应用前景 [6] - 未来研究方向包括在框架中融入高级美学知识,以自动确定最佳相机轨迹和摄影效果,为自动化、电影级视频生成铺平道路 [24]
LeCun的JEPA已进化为视觉-语言模型,1.6B参数比肩72B Qwen-VL
机器之心· 2025-12-20 07:00
模型架构与核心创新 - 基于Yann LeCun提出的联合嵌入预测架构,开发了首个用于通用领域视觉-语言任务的非生成式模型VL-JEPA [1][2][3] - 核心创新在于将传统视觉-语言模型在数据空间的token生成学习,转变为在潜空间的语义嵌入预测,从而专注于任务相关语义并忽略表层语言形式的多变性 [4][11][12] - 模型通过x-encoder和y-encoder分别处理视觉输入和目标文本,由预测器学习从视觉嵌入和文本查询到目标文本嵌入的映射,训练目标定义在嵌入空间而非数据空间 [12] 技术优势与效率提升 - 非生成式与非自回归特性使模型仅需一次前向传递即可产生连续的目标语义嵌入流,实现了极低的延迟,特别有利于实时在线应用 [13][17] - 在匹配的训练条件下,VL-JEPA在零样本描述生成和分类上性能一致更高,且使用的可训练参数仅为对比模型的大约一半,表明嵌入空间监督提高了学习效率 [20] - 通过选择性解码策略,仅在预测嵌入流发生显著变化时才进行解码,实验表明该策略将解码操作次数减少了约2.85倍,同时保持了以平均CIDEr分数衡量的输出质量 [21][22] 性能表现与评估结果 - 基础模型VL-JEPA_BASE在平均分类准确率和检索recall@1方面优于CLIP、SigLIP2和Perception Encoder等对比模型 [24] - 经过监督微调后的VL-JEPA_SFT模型,在组合视觉推理、复杂对象计数和对象幻觉等多个视觉问答数据集上,达到了与InstructBLIP和Qwen-VL等成熟视觉-语言模型系列相当的性能 [28] - 作为一个统一的通用模型,VL-JEPA_SFT接近了针对单个基准优化的专用模型的性能 [28] 应用前景与行业意义 - 该技术旨在使AI系统具备理解物理世界的能力,以协助人类在现实世界中学习、推理、规划和行动,目标应用包括需要实时响应的可穿戴设备和机器人 [8] - 模型能够以低延迟和低推理成本处理实时任务,如实时动作跟踪、场景识别或规划,解决了传统自回归解码模型在实时任务中面临的延迟挑战 [17][19]
Anthropic公布新技术:不靠删数据,参数隔离移除AI危险
机器之心· 2025-12-20 04:45
文章核心观点 - 大语言模型在预训练中会学习到危险知识,传统的数据过滤方法存在成本高、易误伤、难以完全分离等挑战,导致在保留通用能力和移除危险知识之间难以取舍 [1][2] - Anthropic公司提出了一种名为选择性梯度掩码的新方法,该方法通过在训练过程中将危险知识定位到模型特定的参数区域,并在训练后移除这些参数,从而在根源上实现危险能力的移除,同时最大程度保留模型的通用能力 [2][4][9] 方法介绍 - SGTM基于梯度路由框架,其核心做法是通过选择性掩码梯度,控制不同类型的知识被存储到哪些参数中 [11][12] - 该方法将模型参数划分为“忘却”和“保留”两部分,在每个Transformer block中指定特定的注意力头和MLP神经元为忘却参数,用于存储危险知识 [14][15] - 训练机制:当模型处理标注为危险的数据时,只更新忘却参数的梯度;处理未标注数据时,允许更新所有参数,但由于已形成的知识路径,危险内容会自然聚集到忘却参数中,产生吸附效应 [16][17] - 最终步骤:训练结束后,将忘却参数置零,即可移除危险知识 [17] 实验验证:从维基百科模型中移除生物学知识 - 实验设置:在英文维基百科上训练一个2.54亿参数的模型,将占所有token 3.7%的生物学类文章视为需要遗忘的数据 [19] - 对比基线:与两种数据过滤方法对比,弱过滤仅移除生物学文章,强过滤移除生物学、医学、化学及环境类文章 [22] - 实验结果:对于任意固定的通用能力保留程度,SGTM都能获得更高的生物学知识移除强度,在保留-遗忘权衡上明显优于两种过滤方案 [21][22] - 优势原因:数据过滤需对整篇文章做二元判断,而SGTM能从任何来源中将生物学知识局部化到忘却参数中,从而能捕获弱过滤漏掉的信息,并避免强过滤对邻近学科的误伤 [22][26] - 计算成本:在达到与标准训练相同通用能力保留程度的前提下,SGTM会增加约5%的计算开销 [23] 对抗鲁棒性测试 - 测试目的:验证知识是否被真正移除,而非仅仅被压制 [25] - 测试方法:对模型进行对抗式微调,尝试用50/50混合比例的生物学数据与通用数据重新灌输生物学知识 [25] - 测试结果:传统的后训练遗忘方法抗压性极弱,仅需50个微调步骤就完全恢复了生物学能力;而SGTM需要350个步骤才能恢复到基线性能,抗恢复能力是前者的7倍,且与严格数据过滤方法的鲁棒性相当 [29][33] - 结论:这表明SGTM实现的是真正的知识移除,而非表层抑制 [29][33] 机制原理分析 - 受控实验:使用双语TinyStories数据进行研究,将英语视为保留知识,西班牙语视为遗忘知识 [31] - 梯度分析:在处理未标注数据时,遗忘数据在忘却参数上呈现更高的梯度范数,保留数据则在保留参数上梯度范数更高,揭示了自我强化的知识局部化机制 [34] - 吸附效应:初始阶段,带标签的遗忘样本只会更新忘却参数,形成专门的处理路径;随后,未标注的遗忘样本也会自然通过这些路径,主要更新忘却参数 [37] - 规模效应:这种局部化效应会随模型规模增大而增强,在8M到64M参数规模的模型中,大模型在遗忘知识向保留参数泄漏方面表现出更低的程度,表明SGTM在更大模型上效果更佳 [36]