Workflow
华为的准万亿大模型,是如何训练的?
虎嗅APP·2025-05-30 10:18

华为MoE架构技术突破 - 华为提出MoGE架构优化方案,克服传统MoE负载不均衡及效率瓶颈问题,实现降本增效并便于训练部署[1] - 昇腾+Pangu Ultra MoE组合实现国产算力与模型全流程自主可控,预训练阶段万卡集群MFU达41%,后训练单超节点吞吐35K Tokens/s[2] - 公司首次披露昇腾CloudMatrix 384超节点上大稀疏比MoE强化学习后训练框架关键技术,推动RL后训练进入超节点集群时代[2] 当前MoE训练系统六大挑战 - 并行策略配置困难:多种并行策略组合与稀疏激活导致负载不平衡,难以人工优化[3] - All-to-All通信瓶颈:大规模token路由交换占用带宽,造成计算资源空闲等待[4] - 系统负载分布不均:注意力机制序列长度差异、专家激活频率不平衡等多层次不均衡[4] - 算子调度开销过大:动态路由引入高频小规模算子操作,NPU利用率显著降低[4] - 训练流程管理复杂:多模型实例与多任务场景增加资源分配难度[4] - 大规模扩展受限:参数重新映射机制与复杂数据通信制约部署规模[4] 训练集群利用率提升方案 - 智能并行优化:通过建模仿真框架自动确定最优部署配置,包括16路流水线并行、8路张量并行等[7] - Adaptive Pipe通信优化:分层All-to-All通信去冗余,专家并行通信开销降至<2%[10] - EDP全局负载均衡:专家负载预测+动态调节+注意力数据重排技术,解决多通信域负载不均[12] 昇腾单节点算力释放 - 训练算子加速:针对FlashAttention等关键算子优化,提升75%以上计算耗时算子性能[15] - Host-Device协同优化:分层消除同步型/系统性Host-Bound问题,MoE训练中Host-Bound占比<2%[16] - 内存精准管理:通用化重计算+Swap机制实现70%激活值内存节省,MBS翻倍仍稳定[17] RL后训练关键技术 - RL Fusion训推共卡技术:支持多并行策略动态切换,秒级完成状态转换,集群利用率翻倍[20] - 准异步机制StaleSync:容忍梯度陈旧性,系统吞吐提升50%[21] - 分布式数据队列DistQueue:实现多任务数据拆分与动态读取,缓解数据阻塞[21] Pangu Ultra MoE模型性能 - 7180亿参数规模,61层Transformer含58层MoE,隐层维度7680配备256路由专家[26] - 预训练阶段6K-10K卡集群MFU达41%,预计未来可扩展至MFU>50%[26] - RL后训练实现每超节点35K Tokens/s吞吐,4K卡集群等效2秒完成高数大题解析[27]