开源模型发布 - OpenAI发布两款开源推理模型gpt-oss-120b和gpt-oss-20b 这是自GPT-2以来公司首次重新开源模型[1][2] - 两款模型采用Apache 2.0许可证 支持自由构建 商业部署和无版权限制[7] - 模型在高端消费级硬件上可运行 gpt-oss-120b可在单个80GB GPU运行 gpt-oss-20b仅需16GB内存[5][14] 性能表现 - gpt-oss-120b在MMLU基准得分90.0 GPQA Diamond得分80.1 接近o4-mini水平(MMLU 93.0/GPQA 81.4)[7][14] - gpt-oss-20b在MMLU基准得分85.3 竞赛数学AIME 2025得分98.7 超越o3-mini[7][19] - 在医疗基准HealthBench和工具调用基准TauBench上 两款模型表现优于o1和GPT-4o等专有模型[14][19] 技术特性 - 采用Transformer架构与混合专家系统(MoE) gpt-oss-120b总参数1170亿 激活参数51亿/Token[16][17] - 支持128K上下文长度 使用分组多查询注意力(组大小8)和旋转位置编码(RoPE)[16] - 提供完整思维链(CoT)推理过程 支持低/中/高三档推理强度调节[7][18] 部署与应用 - 模型支持参数微调 函数调用 Python代码执行和结构化输出 适用于智能体工作流[8][15] - 通过原生MXFP4量化技术优化 可在手机和边缘设备运行[5][8] - 已与AI Sweden Orange Snowflake等机构合作开展本地化部署和专业数据集微调[15] 训练数据 - 基于英文文本数据集训练 重点涵盖STEM 编程和常识内容[17] - 使用o200k_harmony分词器 比o4-mini和GPT-4o所用分词器更广泛[17] - 采用与o4-mini相似的后训练流程 包含监督微调和强化学习阶段[18] 社区反响 - 发布后引发社区大规模下载尝试 导致Hugging Face服务器过载[10] - OpenAI提供在线Playground和模型卡供开发者体验和技术评估[8][42]
OpenAI重新开源,深夜连发两个推理模型,o4-mini水平,笔记本、手机可跑