盘古 Pro MoE

搜索文档
国产AI算力的“阶跃”时刻
观察者网· 2025-07-30 09:26
国产算力芯片生态发展 - 四家国产算力芯片领军企业创始人罕见同台对话 凸显行业协同趋势[1] - 阶跃星辰联合近10家芯片及基础设施厂商发起"模芯生态创新联盟" 首批成员包括华为昇腾、沐曦、壁仞科技、燧原科技、天数智芯等[3] - 上海企业在模芯联盟中占据半壁江山 2024年上海人工智能企业达24733家 较上年增长5.1% 新增注册资本1000万及以上企业104家[17][18] 阶跃星辰Step 3模型突破 - Step 3在国产芯片上推理效率最高达DeepSeek-R1的300% 在NVIDIA Hopper架构芯片上吞吐量提升超70%[3][6] - 采用多矩阵分解注意力机制(MFA) 较DeepSeek的多头注意力机制(MLA)降低键值缓存用量93.7% 对国产芯片更友好[11] - 模型开发阶段主动适配国产芯片特性 在算术强度特性上与昇腾910B高度匹配[8] 多模态商业应用落地 - 阶跃星辰预计2024年全年营收达10亿元 对比智谱2024年收入约2-3亿元[13] - 多模态模型覆盖国内超一半头部手机厂商 与吉利合作实现端到端语音大模型首次量产上车[15] - 已发布十余款多模态模型 包括Step系列基础模型及语音、视觉理解、图像编辑等垂直模型[15] 硬件适配系统化创新 - 阶跃星辰将模型与硬件视为协同系统 在昇腾910B上解码效率超过华为盘古Pro MoE模型[9] - 模芯联盟旨在建立产品开发进度同步机制 未来可能提前获取芯片设计信息[12] - 国产芯片制程工艺和HBM性能相对落后 需在算法设计层面进行调整优化[8] 上海AI产业发展优势 - 上海坐拥中芯国际和华虹等主要晶圆厂 HBM所需先进封装产能多位于长三角[18] - 上海模速空间日均Token调用量突破100亿大关 基于3000卡沐曦GPU集群实现600小时不间断训练[18] - 上海国投先导人工智能产业母基金首投壁仞科技 生态体系将参与阶跃星辰最新融资[18]
直播预告:「开箱」华为盘古首个开源大模型
机器之心· 2025-07-02 10:40
大模型开源与技术突破 - 华为一次性开源两个大模型:70亿参数的稠密模型「盘古 Embedded」和720亿参数的混合专家模型「盘古 Pro MoE」,同时开源基于昇腾的模型推理技术 [1] - 盘古 Pro MoE在SuperCLUE 5月榜单中位列千亿参数量以内模型国内并列第一,智能体任务表现比肩6710亿参数的DeepSeek-R1,文本理解与创作领域排名开源模型第一 [2] - 盘古 Embedded在学科知识、编码、数学和对话能力方面优于同期同规模模型 [2] 核心技术优势 - 采用分组混合专家MoGE算法、自适应快慢思考合一、全链路高性能推理系统优化等技术,显著提升训练和推理效率 [3] - 盘古 Embedded通过迭代式蒸馏微调、延迟容忍调度框架、双系统快慢思维框架三大技术,实现推理延迟降低与精度保持,尤其适合移动设备等资源受限场景 [12][13] - 盘古 Pro MoE通过MoGE架构解决负载不均衡问题,结合混合并行优化、通算融合、量化压缩等方法,在昇腾910/310硬件平台实现推理效率大幅提升 [16] 模型性能与部署 - 盘古 Pro MoE总参数720亿,激活参数160亿,在4000+昇腾NPU集群长稳训练,通用知识、数学推理等能力优于同规模模型 [16][17] - 昇腾平台针对盘古 Pro MoE优化H2Parallel分层混合并行、TopoComm拓扑亲和通信、DuoStream多流融合等技术,实现极致推理性能 [20][21] 行业应用与演示 - 盘古 Pro MoE将在通用问答、复杂推理、金融场景等任务中进行实例演示,展示模型特性 [24] - 技术分享涵盖模型训练优化、推理系统实践及实际应用效果,面向学术与行业从业者提供洞察 [4][5] 研究团队背景 - 核心研究人员来自华为诺亚方舟实验室和先进计算与存储实验室,包括陈汉亭(大语言模型架构专家)、唐业辉(MoE模型训练专家)、李小松(推理系统优化专家)等,均在国际顶会发表多篇高引论文 [14][18][22]