大模型推理优化
搜索文档
无需训练、只优化解码策略,DTS框架让大模型推理准确率提升6%,推理长度缩短23%
机器之心· 2025-11-21 02:04
文章核心观点 - 提出一种名为DTS(Decoding Tree Sketching)的新型即插即用模型推理框架,旨在解决大型推理模型存在的“越长越错”和“无尽重复”问题 [2] - 该方法通过高不确定度分支推理和最先完成路径早停两大策略,以近似找到最短且正确的推理路径,无需额外训练即可提升模型性能 [2][8] - 在AIME2024/2025基准测试中,DTS显著提升了模型准确率,同时降低了平均推理长度和无尽重复率 [4][9] 技术背景与问题 - 背景是推理大模型存在的“过度思考”问题:CoT/多步推理虽提升能力,但易导致推理链越长越偏离正确答案或陷入自我重复,正确率反而下降 [7][8] - 现有解决方案多依赖成本高昂的额外训练或激进的剪枝策略,落地成本高或稳定性不佳 [8] DTS方法原理 - 核心洞见基于实证:推理链长度与正确率呈显著负相关,多次解码中最短的推理链往往最正确 [9][11] - 将推理过程视为解码树,目标是在稀疏化的树上搜索从根节点到最浅层叶子节点的路径,避免指数级复杂度 [12][13] - 关键技术一:高熵处产生分支,仅在模型不确定时(下一个token分布的熵H(v) ≥ τ)取Top-K候选并行解码,确定时则单分支前进 [16][18] - 关键技术二:最先完成即早停,任何分支一旦生成终止符(<e>)立即返回,将“短即优”的统计规律写入停止准则 [17][18] 实验结果 - 在AIME2024/2025上,DTS使DeepSeek-R1-Distill-Qwen-7B/1.5B模型的准确率平均提升6%,平均推理长度下降约23%,无尽重复率平均减少10% [4] - 具体到AIME24,选择最短推理链的准确率达76.67%,而选择最长链的准确率仅为10.00%,总体平均准确率为51.03% [13] - 有效抑制模型“无尽复读”,将陷入循环的比例平均降低5%至20% [9][21] 核心贡献与影响 - 提出全新推理优化范式,将推理质量问题转化为解码搜索问题,无需训练,即插即用 [26][30] - 揭示了推理链长度与准确率的可量化统计规律,为未来推理模型优化指明方向 [27][30] - 展示了一种轻量化的推理优化路线,未来有望与多步推理、不确定性估计等方向结合,为高效可靠推理开辟新路径 [27]
英伟达帮你省钱,让大模型推理「短而精」,速度快5倍
机器之心· 2025-11-04 04:22
文章核心观点 - 英伟达研究院提出的DLER强化学习训练方法能够显著优化大模型推理过程,在保持准确率的同时大幅减少推理长度和提升效率,代表了推理模型未来的重要发展方向[4][7][14] 大模型推理面临的挑战 - 当前OpenAI o系列、DeepSeek-R1、Qwen等推理模型通过长链思维提升准确性,但导致推理链过长、Token消耗爆炸、响应速度骤降[2] - 长链思维带来的冗长问题是实现AGI路径上亟待解决的瓶颈[3] DLER方法的技术突破 - DLER方法的关键在于采用正确的强化学习优化方法,而非设计复杂的长度惩罚机制[4] - 该方法解决了引入长度惩罚后出现的奖励信号方差增大、熵塌缩、训练信号过度稀疏等强化学习训练问题[7][8] - 通过优势归一化、高熵探索、动态采样和截断惩罚等具体技术手段稳定训练信号并提升效率[8] DLER方法的性能表现 - 新模型产生的推理长度减少70%以上,同时准确率完全保持[7] - 在AIME-24数学基准上,DLER-Qwen-R1-7B模型平均仅用3230个Tokens就达到55.6%的准确率[7] - 在同等推理时间内,DLER模型能并行生成几十条简明推理,最终准确率比DeepSeek-R1高出近50%[10] 行业影响与未来方向 - 研究揭示推理效率提升不取决于惩罚设计的复杂度,而取决于优化算法的选择,颠覆了此前认为强化学习长度惩罚必然降低准确率的观点[15] - DLER方法不仅适用于小模型,在大模型上通过权重选择性合并技术同样有效,能恢复全部准确率并保持近一半的长度压缩[12] - 该方法让模型实现更聪明、更高效的思考方式,以更少Tokens和更短时间达到更高准确率,将成为推理模型实际部署的关键技术之一[14]