Workflow
稀疏注意力机制
icon
搜索文档
DeepSeek 与国产芯片开启“双向奔赴”
21世纪经济报道· 2025-09-30 12:13
9月29日晚间,深度求索公司发布了 DeepSeek-V3.2-Exp 模型,其宛如再次向国产芯片江湖投入一枚巨 石。 官方公告显示,新版本模型实验性地引入了 DeepSeek Sparse Attention(一种稀疏注意力机制),其显 著降低计算资源消耗并提升推理效率。 而得益于这一技术创新,深度求索宣布其官方App、网页端、小程序均已同步更新为新模型,并全面下 调API价格,降幅在50%到75%不等。 值得注意的是,不同于上次发布 DeepSeek-V3.1版本时"犹抱琵琶半遮面"的状态,此次 V3.2 EXP 版本 的发布,几乎零时差引发数个国产芯片厂商——华为、寒武纪、海光等的"认领"。 而这也标志着,国产AI软硬件生态的协同,已经在 DeepSeek 横空出世之后初具雏形。 争相"认领" 就在 DeepSeek 新版放出之后仅仅4分钟,寒武纪就对新模型适配的国产芯片进行"率先认领"。 紧随其后的则是华为昇腾,其表示,基于vLLM/SGLang等推理框架完成适配部署,实现DeepSeek-V3.2- Exp的0day支持,并向开发者开源所有推理代码和算子实现。 海光信息随后也表示,其DCU已实现对D ...
DeepSeek,与国产芯片开启“双向奔赴”
21世纪经济报道· 2025-09-30 11:52
21世纪经济报道记者 赵云帆 9月29日晚间,深度求索公司发布了 DeepSeek-V3.2-Exp 模型,其宛如再次向国产芯片江湖投入一枚巨 石。 官方公告显示,新版本模型实验性地引入了 DeepSeek Sparse Attention(一种稀疏注意力机制),其显 著降低计算资源消耗并提升推理效率。 而得益于这一技术创新,深度求索宣布其官方App、网页端、小程序均已同步更新为新模型,并全面下 调API价格,降幅在50%到75%不等。 值得注意的是,不同于上次发布 DeepSeek-V3.1版本时"犹抱琵琶半遮面"的状态,此次 V3.2 EXP 版本 的发布,几乎零时差引发数个国产芯片厂商——华为、寒武纪、海光等的"认领"。 而这也标志着,国产AI软硬件生态的协同,已经在 DeepSeek 横空出世之后初具雏形。 争相"认领" 就在 DeepSeek 新版放出之后仅仅4分钟,寒武纪就对新模型适配的国产芯片进行"率先认领"。 该公司宣布,已同步实现对深度求索公司最新模型 DeepSeek-V3.2-Exp 的适配,并开源大模型推理引擎 vLLM-MLU源代码。 紧随其后的则是华为昇腾,其表示,基于vLLM/S ...
华为昇腾、寒武纪宣布适配DeepSeek最新模型
21世纪经济报道· 2025-09-30 10:19
9月29日,DeepSeek-V3.2-Exp模型正式发布。 V3.2-Exp在V3.1-Terminus的基础上首次引入了团队自研的DeepSeek Sparse Attention (一种稀疏注意力机制,DSA),针对 长文本的训练和推理效率进行了探索性的优化和验证。 DSA是一种针对Transformer架构的优化技术。在大语言模型的技术机制中,注意力机制是一个核心组件,决定了模型如何 在文本序列中聚焦关键信息,实现语义理解与生成。 简单对比来看,在Transformer架构中,传统的注意力机制是"稠密的",处理长文本时计算量会呈指数级增长。DSA则是一 种"稀疏"方案,更高效,成本也更低。 得益于新模型服务成本的大幅降低,DeepSeek API的价格也大幅下调50%以上。 除技术创新与价格"腰斩"外, DeepSeek此次开源TileLang版本算子,同样引发业内高度关注。 实验版本 当日更早时候,有不少业内人士注意到,DeepSeek将 v3.2-base 上传至DeepSeek在社区平台HuggingFace的官方页面,但很 快被删除。此后,DeepSeek正式公告新版本DeepSeek-V3. ...
华为昇腾、寒武纪宣布适配DeepSeek最新模型
21世纪经济报道· 2025-09-30 10:13
记者丨 陈归辞 编辑丨卜羽勤 9月29日,DeepSeek-V3.2-Exp模型正式发布。 V3.2-Exp在V3.1-Terminus的基础上首次引入了团队自研的DeepSeek Sparse Attention (一种 稀疏注意力机制,DSA),针对长文本的训练和推理效率进行了探索性的优化和验证。 DSA是一种针对Transformer架构的优化技术。在大语言模型的技术机制中,注意力机制是一 个核心组件,决定了模型如何在文本序列中聚焦关键信息,实现语义理解与生成。 简单对比来看,在Transformer架构中,传统的注意力机制是"稠密的",处理长文本时计算量 会呈指数级增长。DSA则是一种"稀疏"方案,更高效,成本也更低。 得益于新模型服务成本的大幅降低,DeepSeek API的价格也大幅下调50%以上。 除技术创新与价格"腰斩"外, DeepSeek此次开源TileLang版本算子,同样引发业内高度关 注。 实验版本 当日更早时候,有不少业内人士注意到,DeepSeek将 v3.2-base 上传至DeepSeek在社区平台 HuggingFace的官方页面,但很快被删除。此后,DeepSeek正式公 ...
DeepSeek新模型降价:优化推理效率,API价格降超50%
YOUNG财经 漾财经· 2025-09-30 06:25
资料图。本文来源:澎湃新闻 记者 范佳来 在新模型的研究过程中,需要设计和实现很多新的GPU算子,使用高级语言TileLang进行快速原型开发,以支持更深入的探索。在最后阶 段,以TileLang作为精度基线,逐步使用底层语言实现更高效的版本。此次开源的主要算子包含TileLang与 CUDA两种版本。 DeepSeek表示,得益于新模型服务成本的大幅降低,官方API价格也相应下调,开发者调用DeepSeek API的成本将降低50%以上。从价格 来看,输入缓存命中从0.5元降至0.2元/百万tokens,缓存未命中从4元降至2元/百万tokens,输出由12元降至3元/百万tokens。 DeepSeek新模型降价:优化推理效率,API价格降超50% DeepSeek发布新版本模型,调用API成本降低超50%。 9月29日,DeepSeek正式发布DeepSeek-V3.2-Exp模型,这是一个实验性(Experimental)的版本。 值得注意的是,此前有不少科技博主发现,DeepSeek-V3.2新模型已上传至其HuggingFace官方页面,随后被删除,此后DeepSeek正式公告 新版本的推出。 据 ...
DeepSeek新版本API价格下调 寒武纪:对新模型DeepSeek
中国证券报· 2025-09-30 00:09
模型更新与性能优化 - DeepSeek发布实验性版本DeepSeek-V3.2-Exp 引入稀疏注意力机制以提升长文本训练和推理效率 [1] - 新模型服务成本大幅降低 API价格下调超过50% [1] - DeepSeek-V3.2-Exp已在App、网页端和小程序同步更新 [1] 硬件厂商适配与生态支持 - 寒武纪同步适配DeepSeek-V3.2-Exp并开源大模型推理引擎vLLM-MLU源代码 [1] - 寒武纪通过Triton算子开发和BangC融合算子实现快速适配及性能优化 达成业界领先计算效率水平 [2] - 华为昇腾基于vLLM/SGLang推理框架完成DeepSeek-V3.2-Exp的0day支持 并开源所有推理代码和算子实现 [3] - 华为昇腾在CANN平台完成优化适配 在128K长序列下实现TTFT低于2秒、TPOT低于30毫秒的推理性能 [3] 模型迭代历程 - DeepSeek于8月21日发布V3.1版本 并于9月22日更新至Terminus版本 改进语言一致性问题 [3] - Terminus版本针对用户反馈优化 缓解中英文混杂及异常字符情况 [3]
DeepSeek最新模型上线,全新注意力机制基于北大ACL最佳论文
36氪· 2025-09-29 23:39
DeepSeek最新模型V3.2-Exp发布,推出全新注意力机制DeepSeek Sparse Attention(DSA),训练推理提效的同时,API同步降价达50%以上! 值得注意的是,这是第一个用「DeepSeek」品牌命名的关键技术(注意力机制)! 全新注意力机制 我们注意到,DSA正是此前与北大合作、梁文锋署名的那篇ACL 2025最佳论文中,原生稀疏注意力(Native Sparse Attention,NSA)的改进。 刚刚,DeepSeek最新模型上线! 代号DeepSeek-V3.2-Exp,被DeepSeek誉为最新的实验性模型! 这次V3.2主要基于DeepSeek-V3.1-Terminus,并且首次引入「DeepSeek稀疏注意力」(DeepSeek Sparse Attention,DSA),在长上下文上实现更快、更 高效的训练与推理。 技术报告里的引用 DeepSeek-V3.2-Exp的核心武器「DeepSeek稀疏注意力」,首次实现了细粒度稀疏注意力机制,在几乎不影响模型输出效果的前提下,实现了长文本训练 和推理效率的大幅提升。 论文地址:https://github.com ...
DeepSeek-V3.2-Exp发布 API成本将降低50%以上
凤凰网· 2025-09-29 14:07
凤凰网科技讯 9月29日,DeepSeek-V3.2-Exp模型发布,V3.2-Exp在V3.1-Terminus 的基础上引入了 DeepSeek Sparse Attention(一种稀疏注意力机制),针对长文本的训练和推理效率进行了探索性的优化 和验证。 在各领域的公开评测集上,DeepSeek-V3.2-Exp的表现与V3.1-Terminus基本持平。 目前,官方App、网页端、小程序均已同步更新为 DeepSeek-V3.2-Exp,同时API大幅度降价。在新的价 格政策下,开发者调用DeepSeek API的成本将降低50%以上。 ...
深度求索正式发布DeepSeek-V3.2-Exp模型
北京商报· 2025-09-29 12:58
北京商报讯(记者 魏蔚)9月29日,深度求索正式发布 DeepSeek-V3.2-Exp 模型,在 V3.1-Terminus 的 基础上引入了 DeepSeek Sparse Attention(一种稀疏注意力机制),针对长文本的训练和推理效率进行 了探索性的优化和验证。目前,官方 App、网页端、小程序均已同步更新为 DeepSeek-V3.2-Exp,同时 API (应用程序编程接口)大幅度降价。在新的价格政策下,开发者调用 DeepSeek API 的成本将降低 50% 以上。 ...
DeepSeek-V3.2-Exp模型发布并开源,API价格大幅下调
36氪· 2025-09-29 12:12
模型发布与更新 - DeepSeek-V3.2-Exp模型于9月29日正式发布并在Huggingface与魔搭平台开源 官方App、网页端和小程序同步更新为V3.2-Exp版本 [1] - 新版本为实验性模型 引入DeepSeek Sparse Attention稀疏注意力机制 针对长文本训练和推理效率进行优化验证 [1] - 华为昇腾已基于vLLM/SGLang推理框架完成适配部署 实现DeepSeek-V3.2-Exp 0day支持 并向开发者开源所有推理代码和算子实现 [1] 技术架构创新 - 稀疏注意力机制首次实现细粒度稀疏化 在几乎不影响输出效果前提下大幅提升长文本训练和推理效率 [1] - 新模型研发使用TileLang高级语言进行快速原型开发 最终阶段以TileLang为精度基线改用底层语言实现高效版本 [2] - 开源算子包含TileLang与CUDA两种版本 官方建议研究性实验使用TileLang版本便于调试和快速迭代 [2] 性能评估与迭代历程 - V3.2-Exp训练设置与V3.1-Terminus严格对齐 在各领域公开评测集表现基本持平 [5] - 8月21日发布的V3.1版本采用混合推理架构 同时支持思考与非思考模式 相比DeepSeek-R1-0528思考效率更高 [4] - 9月22日更新至V3.1-Terminus版本 优化语言一致性缓解中英文混杂问题 并强化Code Agent与Search Agent能力 [4] 商业化进展 - 新模型服务成本大幅降低 API价格相应下调超过50% [4] - V3.1版本通过Post-Training优化显著提升工具使用与智能体任务表现 [4]