Workflow
Mistral Large 3
icon
搜索文档
AI三国杀:OpenAI狂卷,DeepSeek封神,却被Mistral偷了家?
36氪· 2025-12-03 11:55
Mistral Large 3模型发布 - 公司推出MoE大模型Mistral Large 3,采用41B active / 675B total的MoE架构,具备原生图像理解能力、256k上下文长度以及强大的多语言能力[1][3] - 模型在LMArena排名中位列开源模型第6,其ELO得分在开源大模型中稳居第一梯队,与Kimi K2打成平手,仅略低于DeepSeek v3.2[3][6] - 在MMLU、GPOA、SimpleQA、AMC、LiveCodeBench等多项基础任务上,Mistral Large 3(Base)与DeepSeek 37B、Kimi K2 127B保持同一水平,属于开源系第一梯队底模[8] - 模型采用Apache 2.0开源协议,并与NVIDIA深度合作,采用FP4格式并重写了Blackwell的注意力与MoE内核,优化了推理链路[10] - 在真实任务评估中,Mistral Large 3(Instruct)在通用任务和多语言任务里对DeepSeek V3.1、Kimi K2取得53%–60%的胜率[33] Ministral 3小模型系列 - 公司推出Ministral 3系列小模型,包括3B、8B、14B三种规格,每个规格均有base、instruct、reasoning三个版本,全部为多模态且开源[1][11] - Ministral 3的instruct版本在综合智能指数上得分分别为31(14B)、28(8B)、22(3B),全部超越上一代Mistral Small 3.2,且参数量多40%[11] - 小模型经过优化可部署于多种设备,包括DGX Spark、RTX PC、普通笔记本及Jetson等嵌入式板卡,实现从数据中心到边缘设备的覆盖[11][18] - Ministral 14B的底模在数学、知识问答、多语言任务中全面领先Gemma 13B和Qwen 1.8B,其reasoning版本在AIME'25等推理任务上领先Qwen 14B「Thinking」[23][25] - Ministral 14B(Instruction)在WildBench、Arena Hard、数学推理和多模态任务上全面领先Gemma 13B与Qwen 1.8B,指令调优后综合能力几乎碾压同量级模型[28] 性能与基准测试表现 - Mistral Large 3相比上一代Large 2提升了11分,达到38分,但仍未进入GPT-5、Gemini 3、Claude Opus等顶级专有模型所在的第一梯队[13] - 在Artificial Analysis的综合榜单中,前排被GPT-5、Gemini 3、Opus系列占据,DeepSeek和Qwen持续贴近第一梯队,Mistral Large 3则位于两者之间[13] - Ministral 14B(Reasoning)在AIME'25数学推理任务上达到85%的准确率,在数学和代码推理方面几乎是同量级模型的天花板[20][25] 战略定位与行业影响 - 公司战略聚焦于企业市场,首席科学家指出超过90%的企业任务可通过微调的小模型满足,直接针对OpenAI等闭源模型成本高、可控性差的痛点[29] - 公司提供定制化服务,派遣工程师进驻客户公司,帮助构建企业专属AI,目标是用14B模型在企业场景中替代70B、400B的大模型[31] - 公司构建平台化能力,包括Mistral Agents API、Magistral模型系列及AI Studio,形成从模型到工具链的完整生态[33][35] - 公司代表欧洲式“软件制造业”哲学,将AI能力做成标准件供用户随取随用,与美国的“云端神谕”模式形成对比,在全球AI版图中开辟了新路径[37][38]
刚刚,「欧洲的DeepSeek」发布Mistral 3系列模型,全线回归Apache 2.0
机器之心· 2025-12-03 00:06
产品发布概述 - Mistral AI发布新一代开放模型Mistral 3系列 包括多个模型 所有模型均采用Apache 2.0许可证发布[4] - 该系列模型发布标志着欧洲重返由中美主导的AI竞赛[4] - 公司声称Ministral模型代表同类产品中最佳性价比 Mistral Large 3跻身前沿指令微调开源模型行列[4] Mistral Large 3模型详情 - Mistral Large 3是混合专家模型 总参数量675B 激活参数41B 在3000台NVIDIA H200 GPU上从头训练[5][7] - 该模型在通用提示词上达到与市场最好指令微调开放权重模型同等水平 具备图像理解能力 在多语言对话中表现一流[7] - 在LMArena排行榜的OSS非推理模型类别中首次亮相即排名第2 在所有开放模型中排名第6[14] - 模型还有推理版本即将推出[16] Ministral 3模型详情 - Ministral 3系列针对边缘和本地用例 提供3B 8B和14B参数三种尺寸[19] - 每种尺寸均发布基础版 指令版和推理版变体 全部具备图像理解能力且采用Apache 2.0许可证[19] - 公司强调Ministral 3实现所有开源模型中最佳性价比 其指令模型性能相当或更好 同时生成token数量通常少一个数量级[22] - Ministral推理变体14B版本在AIME '25上达到85%准确率[23] 合作伙伴与部署优化 - Mistral与NVIDIA vLLM和Red Hat合作 提供更快更易用的Mistral 3[17] - 发布采用NVFP4格式的检查点 可使用vLLM在Blackwell NVL72系统及单个8×A100或8×H100节点上高效运行Mistral Large 3[17] - 所有新Mistral 3模型在NVIDIA Hopper GPU上训练 利用HBM3e内存处理前沿规模工作负载[17] - NVIDIA为DGX Spark RTX PC笔记本电脑及Jetson设备提供Ministral模型优化部署方案[18] 平台可用性与定制服务 - Mistral 3即日起可在Mistral AI Studio Amazon Bedrock Azure Foundry Hugging Face等平台使用 即将在NVIDIA NIM和AWS SageMaker上线[25] - 公司提供定制模型训练服务 为组织微调或完全适配模型以满足特定需求 确保企业级部署的AI解决方案安全高效[27] 战略背景分析 - Mistral此次全线回归Apache 2.0协议 被视为对DeepSeek激进开源策略的战略调整[28] - 发布可看作公司对DeepSeek的正面追赶 通过在MoE架构上深耕和端侧模型差异化优势 在中美巨头挤压中寻找机会[28]
英伟达官宣新合作成就:Mistral开源模型提速,任意规模均提高效率和精度
华尔街见闻· 2025-12-02 20:03
英伟达与Mistral AI合作的技术突破 - 合作核心是Mistral Large 3大型模型在英伟达GB200 NVL72系统上实现相比前代H200芯片10倍的性能提升 [1] - 性能飞跃转化为更好的用户体验、更低的单次响应成本以及更高的能源效率,模型在每兆瓦(MW)能耗下可实现每秒超过500万个token的处理速度 [1] - 小型模型Ministral 3系列针对英伟达边缘平台优化,可在RTX PC、笔记本电脑和Jetson设备上运行,实现云端到边缘的AI应用部署 [1] Mistral Large 3大型模型技术细节 - Mistral Large 3是一个混合专家模型(MoE),拥有675亿总参数和410亿活跃参数,以及25.6万token的上下文窗口 [2] - 该架构仅激活对每个token最具影响力的模型部分,从而在保持精度的同时实现高效扩展 [2] - 通过为大型先进MoE量身定制的优化技术,该模型在英伟达GB200 NVL72上实现了同类最佳性能 [2] 英伟达实现性能优化的关键技术 - 采用Wide Expert Parallelism技术,通过优化的MoE内核、专家分配和负载均衡充分利用NVLink的连贯内存域 [4] - 应用NVFP4低精度推理技术,在保持精度的同时降低计算和内存成本 [4] - 使用Dynamo分布式推理框架,通过分离预填充和解码阶段提升长文本处理性能 [4] 模型部署的兼容性与灵活性 - 该模型已兼容TensorRT-LLM、SGLang和vLLM等主流推理框架 [5] - 开发者可通过开源工具在不同规模的英伟达GPU上灵活部署模型,选择适合自身需求的精度格式和硬件配置 [5] Ministral 3小型模型系列边缘部署优势 - Ministral 3系列包含九个密集型高性能模型,涵盖30亿、80亿和140亿三种参数规模,所有变体均支持视觉功能和多语言 [6] - 在英伟达RTX 5090 GPU上可实现每秒最高385个token的推理速度,在Jetson Thor设备上,vLLM容器在8个并发下可扩展至每秒273个token [6] - 与Ollama和llama.cpp合作优化边缘性能,可在GeForce RTX AI PC、DGX Spark和Jetson等设备上运行,实现低延迟和强数据隐私保护 [6] Mistral AI公司发展与商业化进程 - Mistral AI在2023年成立,于去年9月完成17亿欧元融资,其中ASML贡献13亿欧元,英伟达也参与其中,公司估值达到117亿欧元 [7] - 公司首席科学家强调,经过针对性微调后,小型模型在企业特定用例上往往能匹敌甚至超越大型模型,且成本更低、速度更快 [7] - 已加速商业化进程,与汇丰银行达成协议,并与多家企业签订了价值数亿美元的合同,在物理AI领域与多家机构展开项目合作 [7] 模型的市场可用性 - Mistral Large 3和Ministral-14B-Instruct现已通过英伟达API目录和预览API向开发者开放 [8] - 企业开发者很快还可使用英伟达NIM微服务在任何GPU加速基础设施上轻松部署这些模型,所有模型均可从Hugging Face下载 [8]