M2N2
搜索文档
教AI「择偶生娃」,复刻自然演化,上交校友提名最佳论文
36氪· 2025-08-27 02:46
公司技术突破 - Sakana AI提出了一种名为M2N2(自然生态位的模型融合)的全新模型融合进化方法,该方法从自然演化中汲取灵感,引入了“竞争、择偶、繁衍”的机制 [1] - M2N2方法的核心思想是让AI模型像生物一样演化,通过竞争、协作与结合,繁衍出更强的后代,旨在构建一个多样化的AI生态系统,而非单一的庞大单体AI [1][3] - 该方法已作为研究论文在GECCO 2025会议上发表,并荣获最佳论文提名奖 [3] 技术原理与创新 - M2N2基于自然演化的三个关键思想:演化融合边界、多样性竞争和择偶机制 [5] - 演化融合边界:打破了预定义的静态融合边界(如固定层或块),允许模型像自然界交换可变长度DNA片段一样自由组合,拓宽了探索空间 [5] - 多样性竞争:模仿“丛林法则”,让模型为有限的训练数据资源竞争,迫使模型走向专业化并寻找自己的“生态位”,从而创造出一个由多样化、高性能专家组成的种群 [5] - 择偶机制:引入一种“吸引力”启发式方法,根据模型的互补优势(即在对方弱项上表现出色)进行智能配对融合,这大幅提升了演化搜索效率并降低了计算成本 [6] - 在优化目标上,M2N2将群体能从某个样本中提取的总适应度限制为容量,候选解获得的适应度正比于其分数相对于群体总分的占比,以此鼓励多样性 [7] 性能优势与实验结果 - M2N2首次将模型融合用于从零开始训练,并在性能与计算效率上优于所有当前的进化算法(如CMA-ES、GA、MAP-Elites) [6] - 实验1(进化MNIST分类器):针对一个19,210个参数的两层前馈神经网络,M2N2在从零开始的测试准确率上有显著优势;从预训练模型起步时,切分点和吸引力机制对提升性能至关重要 [11] - 在多样性方面,M2N2的模型库很快覆盖了绝大多数训练样本(高训练覆盖率),并在训练过程中通过淘汰弱模型来维持一个优势互补的库 [13][15] - 实验2(LLM数学专家与智能体融合):融合WizardMath-7B-V1.0与AgentEvol-7B模型,M2N2在数学基准GSM8k和网页购物基准WebShop上的平均得分最高,达到63.49 ± 0.63 [20] - 在LLM融合中,M2N2保持了高训练覆盖率,并在早期探索阶段熵值上升,随着低性能模型被移除,熵值逐步下降,而GA等方法则迅速收敛为单一解 [23][24] - 实验3(融合基于扩散的图像生成模型):融合JSDXL、SDXL1.0、SDXL-DPO与Juggernaut-XL-v9等模型,M2N2融合模型在测试集上的NCS分数达到84.85,优于所有其他模型 [26] - M2N2融合模型成功结合了各初始模型的优势,生成了更逼真、与训练集更一致的照片,并展现出对日语和英语的良好理解能力,实现了双语能力的涌现 [27][29][31] 技术应用价值 - M2N2在模型融合过程中避免了模型微调中常见的“灾难性遗忘”问题 [8] - 该方法能够兼容针对不同目标训练的模型,并在无需原始训练数据的情况下保留模型能力 [9] - 通过避免梯度计算,M2N2降低了内存占用 [9] - 该方法能够扩展到大型预训练模型(如LLM和扩散模型),并在数学和网络购物等任务上表现显著优于其他方法 [8] - 模型融合的可行性依赖于模型间的相似程度,若微调模型与基座模型因大量分歧训练而显著偏离,融合会变得困难;未来定义模型兼容性度量可能提升融合成功率 [33]
腾讯研究院AI速递 20250827
腾讯研究院· 2025-08-26 16:01
生成式AI模型技术突破 - 英伟达推出Jet-Nemotron小模型系列(2B/4B参数),采用后神经架构搜索与JetBlock线性注意力模块,在数学、代码、常识等维度性能超越Qwen3、Gemma3等主流开源模型 [1] - 模型在H100 GPU上推理吞吐量最高提升53.6倍,长上下文场景优势显著 [1] - 面壁多模态模型MiniCPM-V 4.5以8B参数量超越Qwen2.5-VL 72B模型,成为首个具备高刷视频理解能力的多模态模型 [2] - 支持最大96倍视觉压缩率,可接收6倍视频帧数量,采用3D-Resampler压缩技术和统一OCR学习 [2] - 微软开源音频模型VibeVoice-1.5B,可连续合成90分钟超长语音,支持4名发言人,实现3200倍音频压缩 [3] - 采用双语音tokenizer架构解决音色与语义不匹配问题,压缩效率是主流Encodec模型的80倍 [3] 模型融合与演化创新 - Sakana AI提出M2N2模型融合进化方法,引入竞争与吸引力机制,打破预定义静态边界 [4] - 通过多样性竞争促使模型专业化,择偶机制根据互补优势配对融合,避免灾难性遗忘问题 [4] - 方法兼容不同目标训练的模型,不需原始训练数据即可保留模型能力 [4] 模型部署与运营问题 - DeepSeek V3.1存在异常插入"极/極/extreme"等token的bug,影响语法树和代理流程 [5] - 问题出现在第三方量化部署和官方全精度模型中,即使保守解码参数设置也无法避免 [6] - 对依赖自动化编码或测试流水线的团队造成重大麻烦 [6] AI商业与生态发展 - Perplexity推出全球首个AI搜索收入分成计划,设立4250万美元基金分配给出版商 [7] - 出版商可获得Comet Plus订阅收入(月费5美元)的80%,基于内容出现频率或查询次数分享收入 [7] - 马斯克旗下公司起诉苹果与OpenAI,指控通过锁定市场维持垄断地位,阻止创新者参与竞争 [8] - 诉讼索赔数十亿美元,案件可能影响AI市场范畴界定和商业合作模式 [8] 机器人硬件与算力升级 - 英伟达发布机器人专用芯片Jetson Thor,采用Blackwell架构GPU,AI算力达2070 FP4 TFLOPS [9] - 算力是上代Jetson Orin的7.5倍,内存容量128G,显存带宽273GB/s,能效提升3.5倍 [9] - 宇树科技、银河通用机器人等中国厂商首发搭载,开发者套件售价3499美元 [9] 人工智能教育与政策 - OpenAI教育负责人表示70%雇主更倾向招聘会使用AI的新人而非有10年经验的老手 [10] - ChatGPT成为全球最大学习平台,Study Mode功能以苏格拉底式方法指导学习 [10] - 国务院发布《人工智能+行动意见》,提出2027年实现AI与6大重点领域深度融合 [12] - 重点覆盖科学技术、产业发展、消费提质等领域,要求加强算力统筹、数据供给等八大基础支撑 [12]