压缩即智能

搜索文档
李想为什么会说相信2027年实现L4?
理想TOP2· 2025-08-30 08:58
李想对2027年实现L4自动驾驶的判断依据 - 李想判断自动驾驶主线已明确 即提升AI能力使车达到或超越人类驾驶水平 再解决时延问题即可实现自动驾驶[2] - 李想与马斯克同属"悲观者正确 乐观者成功"框架中的乐观者 马斯克比李想更加乐观[2] - 李想通过电话会议回应自研芯片与2027年L4目标 体现对资本市场的重视[2] 自动驾驶发展的理论基础:压缩即智能 - AI产业核心脉络是"压缩即智能" 即用更短描述长度编码海量杂乱数据[3] - 实现压缩即智能的三条主线:基座模型 扩展定律 涌现能力[3] - 新数据若能用原有方式压缩则属无效数据 无法提升智能 例如牛顿力学解释低速宏观数据[3] - 异常数据催生更复杂压缩 例如水星近日点每100年快43角秒的观测数据推动相对论诞生[4] 自动驾驶实现路径与技术框架 - 自动驾驶充分条件:车实时具备人类驾驶能力(语言/3D空间感知/时间) 解决时延 达到超越人类的安全效率水平[4] - 当前LLM复杂语意理解能力已足够 核心挑战是时延控制[4] - 扩展定律表明模型性能随计算资源 数据量 参数规模呈幂律提升[4] - 理想汽车通过VLA架构以仿真数据强化学习 自研芯片解决本地推理时延问题[5] - 能力提升方向明确 类似GPT-1到3.5的"大力出奇迹"模式[6] 技术演进的不确定性与应对策略 - 2027年L4未必实现 马斯克自2015年起多次预测未果[7] - 未来架构可能超越VLA和Transformer 因Transformer计算量随token数平方增长[7] - 理想汽车核心优势:以提升车理解物理世界为主线 而非单纯处理工程问题[7] - 公司具备快速学习AI前沿能力 例如MindGPT 3.1 ASPO借鉴DeepSeek R1 GRPO选择性学习思想[7][8] - GRPO筛选正确输出作为学习信号 ASPO动态管理训练样本难度(保留预测准确率20%-80%样本)[8][10] - AWE算法降低困难token损失权重 避免梯度干扰[10] - ASPO将学习状态与窗口长度耦合 动态调整训练策略[11] 研发投入与学术合作 - 理想汽车与北京市自然科学基金委员会 顺义区科学技术委员会设立联合基金 年投入几千万元[11] - 通过基金会对接高校教师 获取未公开研究成果 保持技术前沿性[11]
小扎“超级智能”小组第一位大佬!谷歌DeepMind首席研究员,“压缩即智能”核心人物
量子位· 2025-06-12 01:37
核心观点 - Meta正在大力推进AGI研发,通过高薪挖角和收购策略快速组建顶尖AI团队 [3][4][23][26] - 公司计划投入150亿美元收购Scale AI以强化数据标注能力,并直接吸纳其创始团队 [3] - 新成立的AGI实验室规模约50人,由CEO亲自领导并参与招聘,提供7-9位数薪酬方案 [25][26][28] 人才招募 - 从谷歌DeepMind挖角首席研究员Jack Rae,其为Gemini模型"思考"模块负责人,曾参与GPT-4开发 [2][7][9][13] - 引进AI语音初创公司Sesame AI的ML主管Johan Schalkwyk [3] - 向OpenAI/谷歌等公司数十名研究员开出200万美元年薪,但面临OpenAI/Anthropic的人才竞争 [28][31][32] 技术布局 - Jack Rae带来"压缩即智能"理论框架,主张AGI应实现有效信息的无损压缩 [13] - 新实验室将改进Llama模型并开发语音/个性化AI工具,目标超越谷歌/OpenAI [23][24] - 近期发布基于视频训练的世界模型V-JEPA 2,显示技术推进速度 [5] 组织架构 - CEO创建"招聘派对"高层群组讨论人才目标,亲自调整总部工位以靠近新团队 [25][27] - 实验室筹建优先级极高,所有成员均为CEO直接招募 [26] - Scale AI团队可能整体并入Meta,28岁华人创始人Alexandr Wang或将加入 [3] 行业背景 - 谷歌DeepMind近期转向大模型推理,Gemini新增"思考程度"控制功能以优化成本 [10][11] - 顶尖AI人才市场竞争白热化,Meta需支付数千万美元股权方案吸引专家 [4][29]
全新预训练数据筛选方案,让数据效率提升10倍!配置仅需fastText评分器|港科大vivo出品
量子位· 2025-05-15 04:26
核心观点 - vivo与香港科技大学联合提出的PreSelect方法是一种轻量级高效的数据筛选技术,通过fastText评分器减少10倍计算需求,量化数据对模型能力的贡献[1][2][3] - 该方法基于"压缩即智能"理论,通过预测强度指标(S∈[0,1])筛选能显著提升模型效果的数据,相比传统方法具有更强客观性和泛化性[7][8][9][13] - 实验显示PreSelect在17项下游任务中平均提升模型效果3%,在3B参数模型上关键指标如HumanEval通过率提升326.67%[20][23][24] 技术原理 - **预测强度计算**:通过模型loss排序与benchmark得分排序的一致性量化数据价值,公式为$${\bf S}=\sum_{1\leq i<N}\sum_{i<j\leq N}\mathbb{I}\{C_{i}>C_{j}\}/Z$$,其中C为BPC归一化loss[9][14] - **系统框架**:用fastText代理模型近似预测强度,将全量数据计算成本从O(N)降至O(1)[15][16][17] - **筛选维度**:支持样本级别和特定能力维度的细粒度筛选,避免传统方法的主观偏见[5] 性能对比 - **基准测试**:在RefinedWeb数据集上,PreSelect筛选8B tokens训练的400M模型平均得分27.0,显著高于DCLM的25.7和Random的24.2[19] - **规模扩展**:1B模型使用30%筛选阈值时,PreSelect以90B数据达到34.0平均分,优于DCLM同数据量的32.6[19] - **领域覆盖**:筛选结果中高质量知识类domain占比显著提升,如en.wikipedia.org密度达3.12%,同时保持原始数据长度分布[25][26] 应用效果 - **跨数据集验证**:在C4数据集上训练的1B模型,PreSelect使SciO准确率达69.5,超越MATES的67.3和Random的65.8[21] - **商业数据适配**:在vivo自有5T tokens数据中筛选500B训练3B模型,BBH得分提升3.75%,MMLU提升13.68%[23] - **计算效率**:相比DCLM需要100B tokens训练3B模型,PreSelect用相同数据量实现39.5平均分,节省33%计算资源[19]