核心观点 - DeepSeek-V3.1在多项指标上性能大幅领先R1-0528 加强了智能体支持 独创性使用UE8M0 FP8 Scale精度 与国产AI芯片协同创新 [1] 模型升级 - 混合推理架构 一个模型同时支持思考模式和非思考模式 官方App与网页端模型已同步升级为DeepSeek-V3.1 用户可以通过深度思考按钮实现思考模式和非思考模式自由切换 [1] - 更高的思考效率 相比DeepSeek-R1-0528 DeepSeek-V3.1-Think能在更短时间内给出答案 [1] - 更强的Agent能力 通过Post-Training优化 新模型在工具使用与智能体任务中的表现有较大提升 [1] 工具调用与智能体支持 - 编程智能体 在代码修复测评SWE与命令行终端环境下的复杂任务Terminal-Bench测试中 DeepSeek-V3.1相比之前的DeepSeek系列模型有明显提高 [2] - 搜索智能体 在多项搜索评测指标上取得了较大提升 在需要多步推理的复杂搜索测试browsecomp与多学科专家级难题测试HLE上 DeepSeek-V3.1性能已大幅领先R1-0528 [2] - 思考效率提升 经过思维链压缩训练后 V3.1-Think在输出token数减少20%-50%的情况下 各项任务的平均表现与R1-0528持平 [2] - 输出长度控制 V3.1在非思考模式下的输出长度也得到了有效控制 相比于DeepSeek-V3-0324 能够在输出长度明显减少的情况下保持相同的模型性能 [2] 技术细节与开源 - Base模型在V3的基础上重新做了外扩训练 一共增加训练了840Btokens [3] - Base模型与后训练模型均已在Hugging face与魔搭开源 [3] - 使用了UE8M0 FP8 Scale的参数精度 UE8M0 FP8是针对即将发布的下一代国产芯片设计 [3] - 对分词器及chat template进行了较大调整 与DeepSeek-V3存在明显差异 [3]
国泰海通:DeepSeek~V3.1加强智能体支持 与国产AI芯片协同创新