闭源模型
搜索文档
阿里巴巴,突发利好!
中国基金报· 2025-12-10 15:44
文章核心观点 - Meta公司首席执行官马克·扎克伯格亲自介入并推动公司AI战略转向,从开源转向开发名为“Avocado”的闭源商业模型,以寻求盈利,并在模型训练中使用了包括阿里巴巴通义千问在内的多家第三方模型[7][8] 市场反应与公司数据 - 消息影响下,阿里巴巴美股盘前直线拉升,开盘后维持约2%的涨幅[2] - 阿里巴巴美股当日开盘价为159.64美元,前一日收盘价为155.96美元[3] - 阿里巴巴总市值为3808.25亿美元,总股本为23.86亿股[6] - 当日成交量为414.83万股,成交额为6.61亿美元[6] Meta公司AI战略转向 - Meta战略出现重大转向,从多年大力宣扬的开源战略转向开发闭源模型“Avocado”,预计明年春天亮相,此举与谷歌和OpenAI路线一致[7] - 战略转向的直接原因是其开源模型Llama 4的表现令硅谷和扎克伯格感到失望[8] - 公司新任首席AI官Alexandr Wang倾向于支持闭源模型[8] 团队重组与资源投入 - 扎克伯格将部分参与Llama项目的人员边缘化,并亲自出面挖角顶尖AI研究人员和负责人[8] - 新招募的部分人员获得了数亿美元级别、为期多年的薪酬方案[8] - 新加入的人员被集中到名为TBD Lab的团队中,扎克伯格将大量时间和精力花在与该团队密切合作上[8] 模型训练与技术合作 - TBD Lab团队在训练新模型“Avocado”时,采用了“蒸馏”方法,使用了包括谷歌Gemma、OpenAI的gpt-oss以及阿里巴巴通义千问在内的多家第三方竞争对手模型[8] - 使用中国技术(阿里巴巴通义千问)训练新模型,标志着扎克伯格在态度上的微妙转变[8] - 英伟达首席执行官黄仁勋曾表示,中国在开源领域遥遥领先[8]
Meta全力转向闭源模型:引入谷歌、OpenAI及阿里技术成果
新浪财经· 2025-12-10 14:52
公司战略转向 - Meta首席执行官马克・扎克伯格开始亲自介入日常运营工作,并推动公司战略重心转向可实现商业化变现的人工智能模型 [4] - 公司彻底背离其多年来标榜的开源战略,转向与谷歌和OpenAI一致的闭源模型运营策略 [4] - 公司人工智能战略发生重大转向,起因是今年早些时候推出的开源模型Llama 4表现令人失望 [5] 新产品与研发 - 一款代号为Avocado的全新模型预计将于明年春季正式推出,且大概率会以闭源模式面市 [4] - 在Avocado模型的训练过程中,引入了多款第三方模型的技术成果,对包括谷歌的Gemma模型、OpenAI的gpt-oss,以及阿里巴巴的通义千问模型在内的竞品技术进行了提炼整合 [6] - 闭源模式下模型可被严格管控,Meta能够通过授权使用的方式进行销售 [4] 团队与组织变动 - 扎克伯格将Llama 4项目的部分核心成员调离核心岗位 [5] - 扎克伯格亲自出面招揽顶尖人工智能研究人才与团队负责人,为部分人选开出了数亿美元的多年期薪酬方案 [5] - 新任人工智能首席官Alexandr Wang是闭源模型的坚定支持者,其通过一笔价值143亿美元的投资交易加盟Meta [4][5] - 新团队隶属于一个名为TBD Lab的部门,扎克伯格的大量时间与精力都投入到与该新团队的协作中 [5]
20个企业级案例揭示Agent落地真相:闭源模型吃掉85%,手搓代码替代LangChain
36氪· 2025-12-10 12:12
核心观点 - 加州大学伯克利分校发布AI Agent领域迄今最大规模实证研究,基于306名从业者调研及20个企业级案例,覆盖26个行业,揭示了生产级AI Agent的部署现状、技术选择与核心挑战 [1] 部署动机与首要场景 - 73%的从业者部署Agent的首要目的是提高生产力 [2] - 其他主要动机包括:63.6%为减少人工工时,50%为自动化常规劳动 [4] - 相比之下,质性收益如风险规避(12.1%)和加速故障响应(18.2%)排名靠后 [4] - 部署优先考虑能带来直接、可量化回报的场景 [6] - 金融与银行业是Agent应用第一大战场,占比39.1%,其次是科技(24.6%)和企业服务(23.2%) [9] 应用角色与用户 - Agent的角色类似人类的“超级实习生”,深入严肃的商业流程,已走出写代码或聊天机器人范畴 [8][9] - 92.5%的Agent直接服务于人类用户,其中52.2%服务于企业内部员工 [11] - 仅7.5%的Agent服务于其他软件系统,Agent间全自动交互尚不成熟 [11] - 66%的生产系统允许分钟级或更长的响应时间,因相比人类工时仍是巨大效率提升,开发重心在质量与可靠性而非极限低延迟 [11] 技术选型与构建哲学 - 生产级AI Agent构建哲学是“大道至简”,优先选择简单、可控、可维护的技术路径 [12] - 模型选择上闭源是绝对主流:在20个深度案例中,85%(17个)使用了闭源模型,首选Anthropic的Claude系列和OpenAI的GPT系列 [13] - 选择闭源的核心逻辑是效率,对于辅助专家的场景,推理成本相比人力成本可忽略不计 [13] - 开源模型被视为特定场景补充,主要用于大规模高推理场景下的成本效益考量或受法规限制的数据隐私场景 [13] - 70%的案例直接使用现成模型,完全不进行权重微调,学术界热衷的微调和强化学习极少使用 [13] - 从业者精力集中于构建Prompt:78%的系统采用全手动或手动+AI辅助方式构建生产环境Prompt,12%的Prompt超过10,000个Token [16] 系统设计与自主性约束 - 为降低不可控性,Agent自主性被严格限制:68%的系统在需要人工干预前执行步骤不超过10步,47%的系统少于5步 [17] - 限制步数的主要原因包括保证可靠性、控制API调用成本以及控制延迟 [19] - 80%的案例采用预定义的静态工作流,Agent在固定流程内做决定,不能发明新步骤 [19] - 尽管60%的问卷调查者表示愿意用第三方框架,但在实际案例中,85%的团队选择完全自研,直接调模型API,以获得完全控制权并减少依赖臃肿 [19][20] 评估方法与基准测试 - 基准测试参考价值低:75%的团队完全不使用公开学术榜单,因企业业务高度特殊 [21] - 剩余25%的团队从零开始构建自定义基准 [21] - 人工循环验证是主导评估方法,被74.2%的从业者采用 [21] - 在开发阶段,领域专家直接审查输出正确性、安全性和可靠性;在运行阶段,人类作为最终决策者和安全护栏 [23] - 自动化评估也有应用:51.6%的团队使用LLM作为裁判,但所有团队都结合了人工验证,典型做法是LLM评分后高分自动通过、低分转人工,同时人工定期抽查高分样本 [25] 核心挑战与应对策略 - 可靠性是头号挑战:37.9%的人将“核心技术问题”(可靠性、鲁棒性)列为头号挑战,远超合规性(17.2%)和治理问题(3.4%) [26] - 可靠性挑战源于基准难建、测试难做(传统单元测试失效)以及反馈延迟 [27] - 安全与合规性问题通常通过“约束设计”解决,常见方法包括:限制Agent为只读操作、使用沙盒环境、构建API封装层限制抽象层、尝试实施权限控制 [27] - 系统能上线的答案是“约束性部署”,具体模式包括环境约束(如沙盒)和自主性约束(如限制步骤与预定义流程) [28] - 仅利用现有前沿大模型和相对简单的提示工程技术,就足以在超过26个不同行业中创造可观、可量化的商业价值 [29]
AI泡沫要破?巨佬颠覆认知的观点来了!
格隆汇· 2025-12-04 07:29
文章核心观点 - 阿里巴巴联合创始人蔡崇信提出,人工智能竞赛的胜负关键不在于谁拥有最好的大语言模型,而在于谁能将AI技术最好地应用于各行业和实际生活,即关注应用而非仅模型本身 [1][2][22] 中国AI的竞争优势 - **电力成本优势**:中国电力成本比美国低40%,源于国家电网每年资本支出达900亿美元,而美国仅为300亿美元,这构成了AI应用的基础能源成本优势 [3] - **数据中心建设成本优势**:在中国建造数据中心的成本比美国便宜60% [4][5] - **工程师与人才红利**:全球近一半的AI科学家和研究人员拥有中国大学学位,中文在AI领域的交流中正成为一种优势 [6] - **“饥饿优势”激发创新**:硬件(如顶级GPU)的受限,迫使中国团队在系统与算法层面进行极致优化,从而提升效率,例如爆火的DeepSeek便是被逼出来的成果 [7][8] 开源模型的战略价值 - **开源模式将胜出**:蔡崇信判断,中国公司采用的开源大语言模型方法将击败闭源模型,因其能加速AI的采用与普及,使更广泛的社会受益 [8][10] - **开源的核心优势**:开源模型具备成本低廉(使用几乎不花钱)、数据主权(数据可部署于私有云,不出国门)和隐私可控三大优势,这尤其符合当前复杂地缘政治环境下各国对“主权AI”的需求 [9][12][13][14] AI时代的发展建议与行业展望 - **个人核心技能转变**:在AI时代,提出正确的问题比找到答案更重要,“提示工程”将成为人类的核心竞争力 [15] - **编程学习的意义**:学习编程的目的不是为了操作机器,而是为了训练逻辑思维过程,学习使用如Excel等工具进行复杂公式计算也是一种逻辑训练 [16][17][18] - **推荐的专业方向**:数据科学(管理分析数据)、心理学与生物学(理解人脑工作机制)、材料科学(推动半导体等物理材料创新)是未来值得关注的学习领域 [19] - **AI技术真实性**:AI现象是真实的技术进步,相关基础设施和研发投入不会浪费,当前可能存在的仅是金融市场估值泡沫,而非技术本身泡沫 [20] - **AI的角色演进**:AI的下一个重大转变是从工具转变为人类的伙伴,当人们开始像对待另一个人一样看待AI时,将真正改变世界和行为 [23]
闭源越跑越快之后,DeepSeek V3.2 如何为开源模型杀出一条新路
深思SenseAI· 2025-12-03 09:51
文章核心观点 - 闭源模型在综合能力上持续领先,与开源模型的差距在拉大,尤其在复杂任务上优势明显 [1] - DeepSeek V3.2系列模型通过三项关键技术改进,在效率、后训练算力投入和AI Agent能力上取得突破,实现了在有限预算下接近顶级闭源模型(如GPT-5)的性能,为开源社区提供了新的发展路径 [2][3][6][16] 闭源与开源模型的现状与挑战 - 权威评测指出,在最前沿的综合能力上,闭源模型的性能曲线更陡,开源模型在所有维度上追平变得越来越难 [1] - 闭源模型(如Anthropic、Gemini、OpenAI)在复杂任务上展现出越来越明显的优势,与开源模型的差距在拉大 [1] - 开源模型面临三个关键问题:依赖低效的Vanilla Attention机制限制了长序列场景的计算效率和部署;后训练阶段算力投入不足;在AI Agent场景中,泛化与指令跟随能力显著滞后于闭源系统 [2] DeepSeek V3.2的技术改进与架构创新 - 引入DeepSeek Sparse Attention稀疏注意力机制,旨在显著降低长上下文场景下的计算复杂度,这是相比前代V3.1-Terminus唯一的架构层修改 [2][6] - DSA采用两阶段稀疏化筛选机制:通过“闪电索引”轻量级模块计算索引分数,再根据分数仅对得分最高的Top-k个键值条目进行细粒度计算,将核心注意力复杂度从O(L^2)降低到O(L*k) [7][11] - DSA在多头潜在注意力框架下实例化,采用多查询注意力模式以最大化计算效率 [10] - 2025年9月评估显示,DSA在常规任务上相比密集注意力基线没有性能下降,在AA-LCR长文本推理基准测试中得分比上一代模型高出4分 [11] 后训练策略与算力投入 - 将后训练阶段的算力预算提升至超过预训练成本的10%,通过扩大后训练计算规模来释放更高阶的模型能力 [3][12] - 摒弃传统分阶段微调,采用单阶段混合强化学习方案,将推理、智能体和人类对齐任务合并进行,以解决灾难性遗忘问题 [12][14] - 通过专家蒸馏闭环(先训练专家模型并蒸馏,再通过混合RL优化)和算法底层优化(如推导无偏KL估计器、引入离策略序列掩码)来保证训练稳定性和性能上限 [14] - 构建了DeepSeek V3.2 Speciale版本,在RL阶段移除长度惩罚,允许超长思维链推理,使其在IMO 2025和IOI 2025中斩获金牌,硬实力追平闭源模型Gemini 3.0 Pro [14] 数据流水线与AI Agent能力提升 - 提出新的数据流水线,用于在工具使用场景中培育具有泛化能力的推理 [3] - 推进到大规模的agentic任务合成阶段,构建了超过1,800个不同环境以及85,000个复杂提示,这些大规模合成数据显著提升了模型在agent场景下的泛化能力和指令跟随能力 [3] 对行业与开源生态的意义 - Scaling law的边际收益正在变小,复制从GPT-3.5到GPT-4量级的提升已很难仅靠堆叠数据和算力实现,需要新的科学思路、训练机制和架构范式来打开增长曲线 [16] - 大模型发展被拉回到一个更偏“学术研究驱动”的时代,模型本身不是护城河,能力和落地才是 [16] - DeepSeek为开源社区做出了榜样,展示了如何在有限预算下通过重做架构、训练和重塑Agent体系,走出一条不依赖闭源的道路 [16]
DeepSeek杀出一条血路:国产大模型突围不靠运气
36氪· 2025-12-03 03:21
技术突破与架构创新 - 公司发布DeepSeek-V3.2和Speciale两款模型,推理性能对标GPT-5,在数学、逻辑和多轮工具调用中表现强势,成功刷新国内开源模型在推理能力上的最高纪录[1][2] - 突破核心在于引入稀疏注意力机制(DSA),通过“闪电索引器”快速预判关键token对,将核心注意力机制的计算复杂度从平方级降至近线性,在128K超长上下文中保持稳定计算负担[2][3] - 采用“密集预热—稀疏过渡”的双阶段训练策略,实现架构渐变式演进,在Fiction.liveBench、AA-LCR等长文本任务测试中信息召回、上下文一致性和压缩表达能力得分显著上升[3] Agent能力与战略转向 - 公司将“Agent能力”与“推理能力”并列为核心指标,视Agent为模型能力释放与产业落地的桥梁,而非附属模块[6] - 为打造Agent训练体系,合成了超过1800个智能体环境,设计了约85,000条高复杂度任务提示,通过自研的GRPO策略进行强化学习闭环训练[7][8] - 引入“Thinking in Tool-Use”工具使用范式,将执行链条改为交错逻辑,并设计上下文管理策略,使推理轨迹在工具调用过程中被完整保留,实现“状态延续机制”[4][8] 后训练策略与效率提升 - 采用“后训练三件套”策略:专家蒸馏、多轨强化学习、工具思维机制融合,通过六类专家模型生成高质量训练样本反哺主模型[10][11] - 后训练阶段算力投入占比超过预训练预算的10%,强化学习过程通过任务环境自带反馈机制与rubric自动评分,形成闭环学习路径[11] - 设计冷启动系统提示和上下文状态管理,显著降低token冗余,提升“单位token的智能密度”,实现在资源受限前提下提升模型效能[12] 行业竞争格局与路径选择 - 在规模红利见顶后,行业竞争焦点从“参数多少”回归到“思维组织力”与“能效比”[5] - 公司对Agent的理解从“任务执行插件”上升至“模型操作系统”组成部分,试图主导“交错式思维+工具使用”的统一范式,争夺平台话语权[9] - 与闭源阵营追求“更大、更快、更强”的路径不同,公司代表了一种“更轻、更稳、更聪明”的新路径,以更强的推理组织力和更高效训练范式重构开源模型竞争秩序[13]
开源最强!“拳打GPT 5”,“脚踢Gemini-3.0”,DeepSeek V3.2为何提升这么多?
华尔街见闻· 2025-12-02 04:21
模型性能突破 - DeepSeek-V3.2在推理测试中达到GPT-5水平,仅略低于Gemini-3.0-Pro [1] - DeepSeek-V3.2-Speciale在IMO 2025等四项国际顶级竞赛中斩获金牌 [1] - V3.2在AIME 2025测试中达到93.1%通过率,接近GPT-5的94.6%和Gemini-3.0-Pro的95.0% [20] - V3.2在HMMT 2025测试中得分92.5%,与顶级闭源模型差距进一步缩小 [20] 技术创新亮点 - 采用DeepSeek Sparse Attention稀疏注意力机制,将注意力复杂度从O(L²)降低至O(Lk) [6][7] - 实现"思考+调工具"融合机制,成为首个在"思考模式"下支持工具调用的模型 [2][9] - 通过大规模Agent训练数据合成方法,构造1800多个环境、85000多条复杂指令的强化学习任务 [2][11][12] - 后训练计算预算超过预训练成本的10%,为高级能力释放奠定基础 [15] 技术能力表现 - 在代码智能体任务SWE-Verified中获得73.1%解决率,在Terminal Bench 2.0中达到46.4%准确率 [20] - 在搜索智能体评估BrowseComp中通过上下文管理技术,从51.4%提升至67.6%通过率 [20] - 在工具使用基准测试τ2-Bench中获得80.3%通过率,在MCP-Universe中达到45.9%成功率 [20] - 在代码修复、搜索路径规划、多步骤任务中泛化能力大幅领先过往版本,接近闭源商业模型 [14] 行业影响意义 - 证明开源模型完全有能力成为世界级选手,打破闭源模型的绝对技术垄断 [3][21] - 大模型军备竞赛从"谁参数大"升级为"谁方法强" [22] - 为开发者提供成本更低、可定制性更强的高性能模型选择 [22] - 企业不必再完全依赖海外API,也能构建强大AI系统 [22]
DeepSeek又上新!模型硬刚谷歌 承认开源与闭源差距拉大
第一财经· 2025-12-01 23:13
模型发布概览 - 公司于12月1日晚发布两款新模型DeepSeek-V3.2和DeepSeek-V3.2-Speciale,推理能力全球领先 [1] 模型定位与性能对比 - DeepSeek-V3.2定位为平衡推理能力与输出长度,适合日常问答和通用智能体任务,在公开推理测试中达到GPT-5水平,略低于谷歌Gemini3 Pro [4] - DeepSeek-V3.2-Speciale是长思考增强版,结合数学定理证明能力,目标是将开源模型推理能力推向极致,在多个推理基准测试中超越谷歌Gemini3 Pro [4] - Speciale模型在美国数学邀请赛得分95.0(15k),哈佛MIT数学竞赛(HMMT Feb 2025)得分97.5(16k),国际数学奥林匹克竞赛(IMOAnswerBench)得分83.3(18k) [5] - 在编程能力上,Speciale在LiveCodeBench得分90.7(13k),CodeForces得分2708(22k),但在理工科博士生测试(GPQA Diamond)中得分82.4,略逊于谷歌模型 [5] - Speciale模型斩获IMO、ICPC World Finals及IOI金牌,ICPC成绩达人类选手第二名水平,IOI成绩达人类选手第十名水平 [5] 技术架构创新 - 公司提出稀疏注意力机制(DSA)以解决标准注意力机制对长序列处理效率的制约,大幅降低计算复杂度 [7] - 经过两个月实验确认稀疏注意力机制有效性,在不牺牲长上下文性能前提下解决关键计算复杂性问题 [7] - 两款新模型均引入稀疏注意力机制,使V3.2成为具有成本效益的智能体场景替代方案 [7] 产品部署现状 - 公司官方网页端、App和API均已更新为正式版DeepSeek-V3.2 [8] - 增强的Speciale版本目前仅以临时API服务形式开放,供社区评测与研究 [8] 行业竞争格局 - 公司承认其模型在世界知识广度、令牌效率及复杂任务解决能力方面仍落后于领先的专有模型如Gemini3 Pro [6] - 尽管开源圈持续进步,但过去几个月中闭源专有模型如谷歌、OpenAI、Anthropic的性能增长速度显著更快 [6] - 闭源模型与开源模型之间的性能差距日益扩大,专有系统在复杂任务中展现出越来越强的优势 [6] - 行业中存在三个关键缺陷:标准注意力机制制约长序列处理效率、后训练阶段计算投入不足、AI智能体泛化能力存在差距 [7]
开源最强!“拳打GPT 5”,“脚踢Gemini-3.0”,DeepSeek V3.2为何提升这么多?
美股IPO· 2025-12-01 22:29
模型性能突破 - V3.2在工具调用能力上达到当前开源模型最高水平,大幅缩小开源模型与闭源模型的差距[1][4] - V3.2在推理测试中达到GPT-5水平,仅略低于Gemini-3.0-Pro[3] - V3.2-Speciale在IMO 2025等四项国际顶级竞赛中斩获金牌[3] 核心技术创新 - 采用DeepSeek Sparse Attention稀疏注意力机制,将注意力复杂度从O(L²)降低至O(Lk)[8][9] - 实现"思考+工具调用"融合机制,首个在思考模式下支持工具调用的模型[7][11] - 思考模式采用先分析、再规划、再调用工具、再验证、再修正的闭环流程[11][12] 训练策略升级 - 通过大规模Agent训练数据合成方法,构造1800多个环境、85000多条复杂指令的强化学习任务[1][4][13] - 后训练计算预算超过预训练成本的10%,资源投入为高级能力释放奠定基础[18] - 采用可扩展的强化学习框架,在GRPO算法基础上引入多项稳定性改进[19] 评测表现数据 - 推理能力:AIME 2025测试通过率93.1%,接近GPT-5的94.6%和Gemini-3.0-Pro的95.0%[20] - 代码智能体:SWE-Verified解决率73.1%,Terminal Bench 2.0准确率46.4%[20] - 搜索智能体:BrowseComp通过率从51.4%提升至67.6%[20] - 工具使用:τ2-Bench通过率80.3%,MCP-Universe成功率45.9%[20] 行业影响 - 证明通过正确架构+数据策略+工具融合设计,开源模型完全有能力成为世界级选手[4] - 大模型赛道从"参数竞赛"走向"能力竞赛",开源模型在关键能力维度逼近顶级闭源模型[3] - 为开发者提供成本更低、可定制性更强的高性能模型选择[23]
DeepSeek又上新!模型硬刚谷歌,承认开源与闭源差距拉大
第一财经· 2025-12-01 13:31
模型发布与核心定位 - 公司于12月1日晚发布两款新模型:DeepSeek-V3.2和DeepSeek-V3.2-Speciale,其推理能力全球领先 [1] - DeepSeek-V3.2定位为平衡推理能力与输出长度,适合日常问答和通用智能体任务场景,此次为9月底实验版V3.2-Exp的正式版更新 [3] - DeepSeek-V3.2-Speciale定位为将开源模型推理能力推向极致的长思考增强版,结合了DeepSeek-Math-V2的定理证明能力,具备出色的指令跟随和逻辑验证能力 [3] 模型性能表现 - 在公开推理测试中,DeepSeek-V3.2达到GPT-5水平,仅略低于谷歌Gemini3 Pro [3] - DeepSeek-V3.2-Speciale在多个推理基准测试中超越谷歌Gemini3 Pro,特别是在数学竞赛中表现优异 [4] - 具体测试成绩显示:在美国数学邀请赛(AIME 2025)中,Gemini3 Pro得分为95.0(15k),DeepSeek-V3.2得分为93.1(1k);在哈佛MIT数学竞赛(HMMT Feb 2025)中,Gemini3 Pro得分为97.5(16k),DeepSeek-V3.2-Speciale得分为92.5(1k) [5] - Speciale模型斩获IMO、ICPC World Finals及IOI金牌,其中ICPC与IOI成绩分别达到人类选手第二名与第十名水平 [5] 技术突破与优化 - 两款模型均引入稀疏注意力机制(DSA),旨在解决标准注意力机制对长序列处理效率的制约,并确认该机制可大幅降低计算复杂度且不牺牲长上下文性能 [7] - 采用新机制后,V3.2在智能体场景中成为具有成本效益的替代方案,不仅缩小了与前沿专有模型的性能差距,成本也显著降低 [8] 行业趋势与挑战 - 当前开源与闭源模型的差距在拉大,闭源专有模型(如谷歌、OpenAI、Anthropic)的性能增长速度显著更快 [6] - 闭源模型与开源模型之间的性能差距并未缩小反而日益扩大,专有系统在复杂任务中展现出越来越强的优势 [6] - 开源模型面临三大关键缺陷:标准注意力架构制约长序列处理效率、后训练阶段计算投入不足、AI智能体泛化能力和指令遵循能力存在差距 [7] 产品部署与市场反响 - 公司官方网页端、App和API均已更新为正式版DeepSeek-V3.2,但Speciale版本目前仅以临时API服务形式开放,供社区评测与研究 [8] - 海外社媒有观点认为此次发布是了不起的成就,匹配GPT-5和Gemini3 Pro的开源模型出现,差距正式消除,证明严谨工程设计可超越单纯参数规模 [8]