DeepSeek-V3.2-Exp模型发布 - 公司于9月29日正式发布DeepSeek-V3.2-Exp模型,该模型作为迈向新一代架构的中间步骤,在V3.1-Terminus基础上引入了DeepSeek Sparse Attention稀疏注意力机制[2] - DeepSeek Sparse Attention首次实现细粒度稀疏注意力机制,在几乎不影响模型输出效果前提下大幅提升长文本训练和推理效率[4] - 公司对V3.2-Exp与V3.1-Terminus进行严格训练设置对齐,在各领域公开评测集上表现基本持平[4] 模型性能表现 - 通用能力方面:MMLU-Pro保持85.0分,GPQA-Diamond从80.7略降至79.9,Humanity's Last Exam从21.7降至19.8[5] - 搜索与智能体能力:BrowseComp从38.5提升至40.1,BrowseComp-zh从45.0提升至47.9,SimpleQA从96.8提升至97.1[5] - 代码能力:LiveCodeBench从74.9略降至74.1,Codeforces-Div1从2046提升至2121,Aider-Polyglot从76.1降至74.5[5] - 数学能力:AIME 2025从88.4提升至89.3,HMMT 2025从86.1降至83.6[5] 产品部署与定价策略 - 官方App、网页端、小程序均已同步更新为DeepSeek-V3.2-Exp模型[5] - API价格大幅下调,开发者调用成本将降低50%以上[5] 近期技术发展历程 - 9月22日线上模型升级为DeepSeek-V3.1-Terminus,8月21日正式发布DeepSeek-V3.1,称为"迈向Agent时代的第一步"[8] - V3.1采用混合推理架构,同时支持思考模式与非思考模式,具有更高思考效率和更强智能体能力[8] - 9月17日DeepSeek-R1推理模型研究论文登上Nature封面,这是中国大模型研究首次登上Nature封面,也是全球首个经过完整同行评审的主流大语言模型研究[8] - Nature社论评价该研究打破主流大模型未经独立同行评审的空白[9]
降价!DeepSeek,大消息!
证券时报·2025-09-29 11:55