华为盘古718B模型最新成绩:开源第二
量子位·2025-09-29 04:57
华为openPangu大模型技术优势 - 在SuperCLUE中文大模型测评中 华为openPangu-Ultra-MoE-718B以58.87总分位列开源国产模型第二名 仅次于深度求索的61.44分[1][2][3][5] - 该模型采用718B参数规模的混合专家架构 在幻觉控制维度获得81.28高分 显著优于多数竞品[4][6] 核心训练方法论 - 采用质量优先原则构建后训练数据 建立"数据生成-科学筛选-精准增强"全流程方案[10][11][13] - 实施三阶段预训练策略:通用阶段构建世界知识 推理阶段强化逻辑能力 退火阶段扩展上下文长度至128K并增加指令数据[15][16][17] - 引入批判内化机制缓解幻觉 通过自我批判信号引导模型审视推理过程[19][20][22] 工具能力优化方案 - 采用ToolACE框架生成高质量多轮多工具调用数据 提升Agent复杂任务处理能力[23][24][26] - 通过领域工具组合 交互式目标轨迹生成和多智能体对话生成技术增强工具协同使用能力[30] 后训练优化体系 - 使用渐进动态微调(PDFT)平衡过拟合与欠拟合 从SFT平滑过渡到动态微调[28][29] - 采用GSPO算法提升MoE模型训练稳定性 避免性能衰退[31][32] - 通过黑盒优化模型融合方法整合多版本模型优势 自动搜索最佳融合权重[33][34] 行业技术标杆价值 - 系统性技术创新涵盖预训练 数据构建 幻觉控制 工具学习及后训练优化全环节[35] - 提供不依赖数据规模而注重思考质量的技术路径 为行业提供极致打磨技术细节的范本[6][35]