上下文窗口

搜索文档
Qwen新模型直逼Claude4!可拓展百万上下文窗口,33GB本地即可运行
量子位· 2025-08-01 00:46
开源编程模型性能突破 - Qwen3-Coder-Flash开源模型性能达到GPT-4.1级别,支持本地运行[1][2][3] - 多编程任务表现超越多数顶级开源模型,仅略逊于闭源的Claude Sonnet-4和GPT-4.1[5] - 原生支持256k token上下文窗口,可扩展至1 million token,33GB内存的中端笔记本即可运行[5] 技术规格与优化 - 采用MoE架构,30亿参数总量,激活参数3.3亿[16] - 针对Qwen Code、Cline、Roo Code、Kilo Code等平台优化,无缝支持函数调用和agent工作流[16] - 量化版本推出,显存需求降低,24.82GB 6bit MLX版可在M2 Macbook Pro上流畅运行[7][12] 性能基准测试 - Terminal-Bench得分37.5,超越Claude Sonnet-4的35.5和GPT-4.1的25.3[8] - SWE-bench Verified测试中,69.6分表现优异,接近Claude Sonnet-4的70.4分[8] - Agentic Tool Use场景下,TAU-Bench Retail得分77.5,超越Claude Sonnet-4的80.5[8] 实际应用案例 - 简短提示词即可生成完整HTML和JavaScript游戏代码,显示训练数据覆盖广泛[12][13] - 模型可快速响应修改需求,如调整游戏子弹速度,无需复杂工具调用[14] - 生成速度达每秒60个tokens,但在复杂场景如"鹈鹕骑自行车"中效果仍需优化[15] 开源生态与行业影响 - Qwen系列开源节奏加快,推出多款小显存友好方案,增强行业竞争力[18][19] - 国产模型在开源领域竞争激烈,Qwen3-Coder-Flash被评价为"绿色低碳极速版coding模型"[9][19] - 模型已在QwenChat、魔搭社区、Hugging Face等平台开放体验[19]
OpenAI,最新发布!
第一财经· 2025-04-15 00:06
OpenAI GPT-4 1系列模型发布 - 公司推出三款GPT-4 1系列模型包括GPT-4 1、GPT-4 1 mini和GPT-4 1 nano [1] - 新模型需要通过API使用 [1] - GPT-4 1被视为GPT-4o的全面升级版 [1] 模型性能提升 - 新模型具备更强的多模态处理能力 [1] - 全部模型可处理100万个token的上下文窗口 [1] - 成本降低26% [1]