Workflow
UMA2 算法
icon
搜索文档
南大周志华团队最新力作:一个算法通吃所有,在线学习迎来新范式?
机器之心· 2025-08-05 04:09
核心观点 - AI模型需要具备在线学习能力以应对动态变化的世界,为此提出新的性能指标——适应性遗憾值(adaptive regret)[1] - 现有算法存在通用性不足的问题,只能处理特定凸函数且需要预先知道参数[1] - 南京大学周志华团队提出具有双重自适应性的通用算法,能自动适应函数性质和环境变化[1] 元-专家框架 - 提出元-专家框架构建双重自适应算法,动态创建多个专家算法并通过元算法集成[3] - 引入"休眠专家"技术捕捉环境变化,提出两种通用性实现方式:增加专家数量和提升专家能力[3] - 框架包含三个关键组成部分:元算法(Adapt-ML-Prod扩展版)、几何覆盖区间定义专家生命周期、专家构建策略[6][7] 双层通用算法(UMA2) - 通过增加专家数量策略提出UMA2算法,在每个区间引入大规模专家集合应对不确定性[9] - 引入替代损失函数使专家分别最小化,无需多次梯度估计且避免参数有界性假设[9][10] - UMA2能有效最小化一般凸函数的自适应遗憾值,自动利用函数"易解性"[12] 三层通用算法(UMA3) - 通过提升专家能力策略提出UMA3算法,使单个专家能处理更广泛凸函数类别[16] - 采用Maler作为专家算法,形成三层结构,简化算法设计与理论分析[19] - UMA3达到与UMA2相同的强自适应遗憾值界限,支持函数类型切换[20] 在线复合优化 - 研究在线复合优化问题,损失函数由时间变化函数和固定凸正则项组成[22] - 构建新的元-专家框架,采用Optimistic-Adapt-ML-Prod作为元算法[24] - 提出不依赖模量有界性假设的通用复合函数算法,实现三类复合函数的强自适应遗憾界限[24][26] 未来工作 - 当前算法需维护大量专家算法导致计算开销高,未来将探索黑盒归约技术降低投影操作复杂度[28][29]