Agentic Context Engineering (ACE)

搜索文档
微调已死?Agentic上下文工程登场,无需微调实现模型进化
机器之心· 2025-10-11 03:29
文章核心观点 - 斯坦福大学、SambaNova、UC 伯克利联合团队提出了一项名为主动式上下文工程(ACE)的新技术,该技术通过动态优化输入上下文,使语言模型无需微调也能实现自我提升,有望成为构建高性能、可扩展AI系统的核心范式 [1][4][11] - ACE框架通过“生成-反思-整合”的工作流程,将上下文视为不断演化的结构化“作战手册”,有效解决了现有上下文自适应方法存在的“简约偏置”和“上下文塌缩”两大局限 [5][6][12][16] - 实验结果表明,ACE在智能体任务和金融领域特定任务上均实现了显著的性能提升,同时大幅降低了适应延迟和计算成本,为在线学习与持续学习提供了高效替代方案 [34][40][43][47] 上下文自适应技术背景 - 当代基于大型语言模型的AI系统越来越依赖于上下文自适应,即在模型训练完成后,通过优化输入上下文来提升模型性能,而非直接修改模型参数 [4] - 与参数更新相比,上下文自适应具有可解释性强、能快速整合新知识、可在多个模型间共享等核心优势,长上下文模型和高效推理机制的进展使其更具现实可行性 [4] - 现有方法存在“简约偏置”,即过度追求简洁指令而忽略关键细节策略,以及“上下文塌缩”,即提示词重写会退化为模糊摘要导致性能下降 [5][6] ACE框架核心设计 - ACE框架引入三种协作角色:生成器负责生成推理轨迹,反思器从成功与错误中蒸馏具体洞见,整编器将这些洞见整合进结构化的上下文更新 [13][16] - 核心设计理念是将上下文表示为结构化的条目集合,每个条目包含唯一标识符、“有用/有害”计数器等元数据,以及可复用策略、领域概念等内容 [18][19][31] - 采用增量式Delta更新机制,只对相关条目进行局部化更新,避免了整体重写的高计算成本,并通过Grow-and-Refine过程维持上下文的动态可扩展性与高相关性 [20][21][25] 实验性能表现 - 在智能体任务(AppWorld基准)上,ACE在无需标注数据的情况下,仅凭执行反馈就使平均性能提升高达17.1%,使开源小模型的表现接近最强商用系统 [34][35] - 在金融领域特定任务(FiNER与Formula数据集)上,ACE通过构建含丰富领域知识的“作战手册”,平均性能提升12.8%,其中Formula任务的性能提升达到18.0% [40][41] - 通过增量更新与轻量化合并机制,ACE使适应延迟平均降低86.9%,其中在线适应场景的延迟降低91.5%,令牌成本降低83.6% [43][44] 技术影响与前景 - 尽管ACE生成的上下文更长,但现代服务基础设施通过KV缓存复用等机制已对长上下文负载进行优化,实际部署成本不会线性增加,且未来会进一步下降 [46] - ACE为传统模型微调提供了一种灵活高效的替代方案,更新上下文比更新参数成本更低,具备可解释性,并可能实现选择性遗忘,适用于隐私保护和合规需求 [47] - 该技术未来有望成为推动持续学习与负责任学习的核心机制之一,为应对分布漂移和训练数据有限性提供重要方向 [48]