Workflow
上下文自适应
icon
搜索文档
微调已死?Agentic上下文工程登场,无需微调实现模型进化
36氪· 2025-10-11 03:53
技术核心与创新 - 提出主动式上下文工程(ACE)框架,使语言模型无需微调即可实现自我提升 [1] - 将上下文视为动态演化的“作战手册”,持续积累、蒸馏与组织策略,而非简短的摘要或静态指令 [6][7] - 引入生成器、反思器、整编器三种协作角色,分别负责生成推理轨迹、提炼洞见和整合结构化更新 [9][10] - 采用增量式Delta更新机制,通过局部编辑替代整体重写,降低延迟与计算开销 [11][13] - 引入Grow-and-Refine机制,在持续扩充上下文的同时抑制冗余,维持上下文的紧凑性与相关性 [11][14] 性能优势 - 在智能体任务(AppWorld基准)上,ACE使开源小模型性能提升高达17.1%,接近最强商用系统水平 [19][20] - 在金融分析任务(FiNER和Formula数据集)中,ACE平均性能提升8.6%,其中Formula数据集准确率提升18.0个百分点 [25][26] - 通过增量更新与轻量合并机制,ACE使适应延迟平均降低86.9%,离线场景延迟降低82.3%,在线场景延迟降低91.5% [28][29] - 消融实验表明,反思器与多轮蒸馏等组件对性能提升至关重要,移除后性能显著下降 [27][28] 行业应用潜力 - 上下文自适应正成为构建高性能、可扩展且具备自我改进能力的AI系统的核心范式 [2][3] - 该方法适用于智能体类任务和领域特定任务,特别是在需要保留细致、任务相关知识(如金融、法律分析)的场景中优势明显 [4][15][18] - 为传统模型微调提供了一种灵活且高效的替代方案,更新上下文比更新模型参数成本更低,并具备可解释性 [31][32] - 现代服务基础设施通过KV缓存复用等机制对长上下文负载进行优化,使得ACE等长上下文方法的实际部署成本有望进一步下降 [31]
微调已死?Agentic上下文工程登场,无需微调实现模型进化
机器之心· 2025-10-11 03:29
文章核心观点 - 斯坦福大学、SambaNova、UC 伯克利联合团队提出了一项名为主动式上下文工程(ACE)的新技术,该技术通过动态优化输入上下文,使语言模型无需微调也能实现自我提升,有望成为构建高性能、可扩展AI系统的核心范式 [1][4][11] - ACE框架通过“生成-反思-整合”的工作流程,将上下文视为不断演化的结构化“作战手册”,有效解决了现有上下文自适应方法存在的“简约偏置”和“上下文塌缩”两大局限 [5][6][12][16] - 实验结果表明,ACE在智能体任务和金融领域特定任务上均实现了显著的性能提升,同时大幅降低了适应延迟和计算成本,为在线学习与持续学习提供了高效替代方案 [34][40][43][47] 上下文自适应技术背景 - 当代基于大型语言模型的AI系统越来越依赖于上下文自适应,即在模型训练完成后,通过优化输入上下文来提升模型性能,而非直接修改模型参数 [4] - 与参数更新相比,上下文自适应具有可解释性强、能快速整合新知识、可在多个模型间共享等核心优势,长上下文模型和高效推理机制的进展使其更具现实可行性 [4] - 现有方法存在“简约偏置”,即过度追求简洁指令而忽略关键细节策略,以及“上下文塌缩”,即提示词重写会退化为模糊摘要导致性能下降 [5][6] ACE框架核心设计 - ACE框架引入三种协作角色:生成器负责生成推理轨迹,反思器从成功与错误中蒸馏具体洞见,整编器将这些洞见整合进结构化的上下文更新 [13][16] - 核心设计理念是将上下文表示为结构化的条目集合,每个条目包含唯一标识符、“有用/有害”计数器等元数据,以及可复用策略、领域概念等内容 [18][19][31] - 采用增量式Delta更新机制,只对相关条目进行局部化更新,避免了整体重写的高计算成本,并通过Grow-and-Refine过程维持上下文的动态可扩展性与高相关性 [20][21][25] 实验性能表现 - 在智能体任务(AppWorld基准)上,ACE在无需标注数据的情况下,仅凭执行反馈就使平均性能提升高达17.1%,使开源小模型的表现接近最强商用系统 [34][35] - 在金融领域特定任务(FiNER与Formula数据集)上,ACE通过构建含丰富领域知识的“作战手册”,平均性能提升12.8%,其中Formula任务的性能提升达到18.0% [40][41] - 通过增量更新与轻量化合并机制,ACE使适应延迟平均降低86.9%,其中在线适应场景的延迟降低91.5%,令牌成本降低83.6% [43][44] 技术影响与前景 - 尽管ACE生成的上下文更长,但现代服务基础设施通过KV缓存复用等机制已对长上下文负载进行优化,实际部署成本不会线性增加,且未来会进一步下降 [46] - ACE为传统模型微调提供了一种灵活高效的替代方案,更新上下文比更新参数成本更低,具备可解释性,并可能实现选择性遗忘,适用于隐私保护和合规需求 [47] - 该技术未来有望成为推动持续学习与负责任学习的核心机制之一,为应对分布漂移和训练数据有限性提供重要方向 [48]