Workflow
DeepSeek V2
icon
搜索文档
万字解析DeepSeek MOE架构!
自动驾驶之心· 2025-08-14 23:33
MOE架构基本原理 - MOE全称为混合专家模型 核心思想是使用多个专家FFN替代原Transformer架构中的前馈层 每个token会选择top-K个专家进行前向传递[2][4][6] - MOE层由路由器(门控和选择器)和n个专家FFN组成 路由器通过softmax操作选择不同专家的权重 选择器确定top-K专家[6] - 在Switch Transformers中采用top-K=1策略 主要考虑专家并行方案时的通信 计算和存储效率平衡[9][10][14] - 引入容量因子概念 专家容量=(总token数/专家数量)×容量因子 用于控制每个专家处理的token数量 防止溢出或资源浪费[13][18] Switch Transformers优化方案 - 采用简单稀疏路由和高效稀疏路由两种方案 简单稀疏路由针对单个token选择专家 高效稀疏路由针对专家并行设计[7] - 负载不均衡问题通过可微的负载均衡辅助损失函数解决 使token在专家分布上尽可能均匀[17][20] - 专家容量静态分配可能导致溢出或浪费 动态计算时需要平衡容量因子设置[15][16] DeepSeek V1架构创新 - 提出细粒度专家划分策略 通过拆分FFN中间隐藏维度增加专家数量 在保持参数总量不变情况下提升专家专业化程度[22][25] - 引入共享专家分离机制 设置特定共享专家始终激活 用于捕捉通用知识 减少其他路由专家间的冗余[24][26] - MOE层输出由三部分组成:共享专家输出 Top-K路由专家输出和残差连接[30] - 设计专家级别和设备级别双重负载均衡损失函数 解决训练不充分和计算瓶颈问题[32][35] DeepSeek V2优化重点 - 实施设备受限路由策略 将每个token的激活专家所在GPU设备数量限制为3个 显著降低通信开销[37] - 新增通信负载均衡损失函数 优化设备间token分配均衡性[38][39] - 采用token丢弃策略 对超过专家容量的token按分值降序丢弃 仅影响当前MOE层计算[42] DeepSeek V3技术演进 - 将门控函数从SoftMax改为Sigmoid 可能出于降低计算复杂度考虑 特别在专家数量增至256个时更明显[44][45] - 弃用所有辅助负载均衡损失 引入可学习偏置项bi 通过动态调整偏置值实现负载均衡[46][47] - 新增序列级别辅助损失函数 防止单个序列内出现极端不平衡情况[49][50] - 完全取消token丢弃策略 通过偏置项和序列级损失实现良好负载均衡[52] MOE架构发展脉络 - MOE架构早在1991年就已提出 但直到2023年底Mixtral 8*7B模型发布后才受到广泛关注[2] - 国内Qwen和MiniMax等公司也推出MOE模型 但架构实现相对DeepSeek更简单[3] - DeepSeek从V1到V3持续优化负载均衡和通信效率 体现对高效计算的一贯追求[36][43] - MOE模型特别适合云计算并行推理场景 在AI模型中的地位日益重要[3]
DeepSeek爆火100天:梁文锋「藏锋」
36氪· 2025-05-16 09:21
核心观点 - DeepSeek R1的发布将AI行业焦点从GPT模式转向Reasoner模式,标志着AI发展的新里程碑 [3][9] - 梁文锋的低成本大模型训练策略引发行业震动,挑战英伟达的高端算力芯片需求,导致其股价单日蒸发近6000亿美元 [4][5][6] - DeepSeek的开源策略和性价比路线重构了中美AI发展路径,国内科技大厂纷纷跟进降价并调整战略 [14][15][37][40] 行业影响 - 国内科技大厂加速C端应用布局,腾讯、字节等接入DeepSeek后实现用户增长,腾讯元宝下载量一度登顶 [40][41] - 行业分裂为两条路线:坚持Scaling Law的硅谷企业(如OpenAI融资400亿美元)与追随DeepSeek性价比策略的中国企业 [37][38] - AI六小龙等国内创企受冲击,零一万物放弃AGI转向行业模型,其他公司转向Agent应用或垂直领域 [38][39] 公司动态 - DeepSeek爆红后估值达80亿美元寻求融资,但暂未扩建算力或追逐用户规模,保持独立开源定位 [29][30][32] - 公司技术迭代加速:发布NSA架构挑战Transformer,参数规模从7B扩展到671B,数学和代码模型性能显著提升 [35][36] - 团队押注数学/代码、多模态、自然语言三大方向,创始人梁文锋持续参与技术研发并保持低调作风 [19][34] 产业链反应 - 英伟达H20芯片因DeepSeek需求激增遭美国出口管制,预计损失55亿美元,紧急开发中国特供版 [7][8] - 科技大厂启动"天才少年"计划争夺年轻人才,试图复制DeepSeek的创新模式 [42] - 马化腾、李想等国内大佬公开赞赏梁文锋,硅谷则对其持质疑态度 [23][24]
快看!这就是DeepSeek背后的公司
梧桐树下V· 2025-01-29 03:16
公司基本信息 - 公司全称为杭州深度求索人工智能基础技术研究有限公司,英文名Hangzhou Deep Search Artificial Intelligence Basic Technology Research Co Ltd,成立于2023年7月17日 [2] - 注册资本1000万元且已完成实缴,法定代表人裴湉,注册地址为杭州市拱墅区环城北路169号汇金国际大厦西1幢1201室 [2][3] - 截至2023年底公司社保缴费员工4名,企查查行业分类为信息系统集成服务,规模为微型企业 [2][3] 业务与技术 - 公司专注于通用人工智能模型(AGI)研发,主要产品包括开源大语言模型DeepSeek LLM、MoE模型DeepSeek MoE、代码模型DeepSeek Coder系列、数学模型DeepSeek Math及多模态模型DeepSeek-VL系列 [4] 股权结构与股东 - 股东为宁波程恩企业管理咨询合伙企业(有限合伙)持股99%和梁文锋持股1% [6] - 宁波程恩成立于2023年7月31日,出资额1200万元,其合伙人包括梁文锋(50.10%)、宁波程信柔兆企业管理咨询合伙企业(49.80%)和宁波程普商务咨询有限公司(0.10%) [6][9] - 梁文锋通过多层持股控制宁波程信(68.14%股权)和宁波程普(68.21%注册资本) [6] 关联企业与变更记录 - 宁波程恩、宁波程信、宁波程普均成立于2023年7月下旬,晚于杭州深度求索的成立日期(7月17日),三家企业执行事务合伙人均为梁键 [8][9] - 公司初始为北京深度求索全资子公司,2023年8月2日股权转让给宁波程恩和梁文锋,同日注册资本从100万元增至1000万元 [11] - 北京深度求索成立于2023年5月16日,曾与杭州深度求索形成交叉持股结构(双方互相100%持股),后调整为现有股权架构 [11]