Workflow
FedPall
icon
搜索文档
对抗协作+原型学习!深北莫FedPall开源,联邦学习破局特征漂移,准确率登顶SOTA
机器之心· 2025-09-24 09:25
研究背景与问题 - 特征偏移问题是联邦学习数据异构场景下普遍存在的挑战 同一类别的样本在不同客户端上表现出不同特征分布 导致决策边界模糊并严重影响分类性能[2] 研究方法与算法 - 提出FedPall算法 结合原型对比学习和对抗协作学习进行联合训练[2] - 客户端与服务器间引入对抗学习机制 通过客户端间协作将特征表示投影到统一特征空间[3] - 采用分层整合全局原型与局部特征的技术策略 混合原型特征用于训练全局分类器[3] - 通过KL散度增强不同客户端的异构信息 利用CE和全局原型对比损失训练特征编码器[5] - 将全局分类器部署至每个客户端取代本地分类器 以增强泛化能力[6] 实验设计与数据集 - 在三个特征漂移数据集(Digits、Office-10和PACS)上评估性能[8] - 与FedAvg、FedProx、FedBN、MOON等经典及SOTA基线方法进行比较[9] 性能表现 - Office-10数据集平均准确率达67.5% 较第二名ADCOL方法(61.4%)高出约6.1个百分点[9][10] - Digits数据集平均准确率达88.7% 较第二名FedBN方法(87.6%)高出约1.1个百分点[9][10] - PACS数据集平均准确率达60.6% 较FedBN方法(59.5%)高出约1.1个百分点[9][12] - 在MNIST-M客户端上准确率达85.9% 显著优于FedBN的76.3%[9][12] - 在Office-10数据集上以31.5个百分点的优势超越FedBN方法[12] 技术优势 - 对抗学习有效缓解MNIST-M客户端中的异构信息问题[12] - 融合对抗学习与协作学习的特殊设计能良好适应现实数据集的显著特征漂移[12] - 在所有子数据集上都取得第一或第二的准确率[12] 应用与局限 - 目前仅针对分类任务设计并在图像数据集上进行评估[12] - 未来计划验证框架在其他模态数据和更多任务类型的泛化能力[13]