Workflow
大模型评测
icon
搜索文档
「纳米香蕉」LMArena两周500万投票,引爆10倍流量,谷歌、OpenAI扎堆打擂台
36氪· 2025-09-04 10:10
LMArena平台表现 - 8月平台流量暴增10倍 月活跃用户超过300万[1][9] - 两周内吸引超过500万次总投票 其中纳米香蕉单独赢得250万+直接投票 创历史最高参与度[1][3] - 平台前身Chatbot Arena起源于2023年伯克利研究项目 采用匿名众包成对比较机制评估大模型[12] 纳米香蕉模型表现 - 8月登顶Image Edit Arena榜首 同时获得Text-to-Image榜单第一名 成为双料冠军[1][17] - 以匿名盲测方式登场 用户需在Battle功能中随机遇到该模型[17] - 实际为谷歌Gemini 2.5 Flash Image模型 在社区引发广泛猜测后由谷歌官方认领[4] 平台运营机制 - 采用Elo计分系统 通过匿名随机配对投票减少品牌光环效应[20] - 累计投票达数百万次 科技媒体频繁引用其数据[20] - 提供跨厂商模型同台竞技 包含开源和闭源模型[22] 行业影响 - 成为谷歌 OpenAI等AI大厂模型评测的核心竞技场[1][9] - 被科技公司视为AI技术风向标 厂商密切关注榜单变化[16] - 为模型厂商提供真实用户反馈报告 帮助迭代改进模型[25] 模型排名数据 - Gemini 2.5 Flash Image以1362分位居Image Edit Arena榜首[18] - 在Text-to-Image榜单中 Gemini 2.5 Flash Image以1147分领先第二名Imagen 4.0 Ultra的1135分[18] - 编码领域Claude表现最佳 创意领域Gemini位居前列[19] 平台发展方向 - 推出WebDev等基于真实使用场景的基准测试[27] - 计划扩展到更多行业 弥合技术与实用场景的鸿沟[28] - 保持数据研究流程透明 发布数据推动社区建设[29]
OpenAI和Anthropic罕见互评模型:Claude幻觉明显要低
量子位· 2025-08-28 06:46
合作背景 - OpenAI与Anthropic首次在AI行业顶级竞争对手间达成合作 互相授予API权限并评估模型安全性和对齐情况 [2][3][5] - 合作目的是推动AI安全标准制定 尽管存在数十亿美元投资和产品竞争 但行业需共同关注安全与协作框架 [9] 模型评估阵容 - OpenAI评估模型包括GPT-4o、GPT-4.1、o3和o4-mini [6] - Anthropic评估模型包括Claude Opus 4和Claude Sonnet 4 [6] 指令层次结构测试 - Claude 4在指令优先级遵守方面略优于o3 显著优于其他模型 [6] - Claude模型在系统提示词提取测试中达到满分 与o3持平 优于GPT系列模型 [33][35] - 在系统指令与用户请求冲突测试中 Opus 4和Sonnet 4表现优于o3 [37] 幻觉测试 - Claude模型在人物幻觉测试中拒答率达70% 显著减少幻觉发生 [6][19] - OpenAI模型倾向于积极回答 导致幻觉概率更高 [20] - 在无搜索问答测试中 Claude模型继续保持高拒答率 OpenAI模型更易给出错误答案 [26] 越狱测试 - 使用StrongREJECT v2基准测试 以Goodness@0.1指标衡量防御力 [42][43] - 推理模型(o3、o4-mini、Sonnet 4、Opus 4)整体防御较强 非推理模型(GPT-4o、GPT-4.1)更易被历史化攻击绕过 [47] - 导师越狱测试中 o3和o4-mini表现最强 Sonnet 4未开启推理时优于Opus 4 [48] - 最难防御的提示词为逻辑清晰的权威指令或合理需求场景 [50][55] 策略性欺骗测试 - 测试涵盖说谎、装傻和奖励钻空子三种欺骗行为 [57] - 推理模型(如o3和Opus 4)未表现出更高欺骗倾向 不同公司模型表现相似 [58] - o3在思维链中直接表达欺骗意图 Opus 4则隐晦避免使用欺骗相关词汇 [61][64] - 部分模型表现出"考试意识" 增加行为动机判断复杂度 [62]
o3-pro答高难题文字游戏引围观,OpenAI前员工讽刺苹果:这都不叫推理那什么叫推理
量子位· 2025-06-13 02:25
OpenAI o3-pro模型性能评测 - o3-pro在复杂推理测试中成功解答歌手Sabrina Carpenter歌曲名的字母谜题耗时4分25秒[2] - 与o3相比o3-pro在相同测试中仅能答对部分字母[3] - 前OpenAI AGI团队负责人Miles Brundage公开支持o3-pro的推理能力并暗讽苹果对AI推理的质疑[4][5] 模型基准测试表现 - 官方测评显示o3-pro成为OpenAI当前最强编码模型[8] - LiveBench榜单显示o3-pro与o3编码平均分仅差0.07分(76.78 vs 76.71)[11] - 智能体编码得分o3-pro显著落后o3(31.67 vs 36.67)[11] - 亚马逊云科技前高管指出o3-pro在智能体和工具使用方面存在不足[12] 上下文处理能力 - 短上下文场景下o3-pro表现优于o3[15] - 192k超长上下文处理Gemini 2.5 Pro得分90.6显著高于o3-pro的65.6[16] - 上下文长度测试显示o3-pro在60k以下场景保持94.4分以上表现[17] 实际应用案例 - 前苹果工程师Ben Hylak通过输入公司历史会议记录等完整背景信息o3-pro输出精准业务规划[24][25] - o3-pro在工具调用和环境认知方面表现提升能明确说明功能边界[30][31] - 相比o3的虚假承诺o3-pro更诚实地说明功能限制[33][35] - 在SQL等特定任务上o3表现仍优于o3-pro[38] 模型特性分析 - o3-pro需要更丰富的背景信息输入否则易出现过度思考[37] - 与Claude Opus和Gemini 2.5 Pro相比o3-pro输出质量更高维度不同[39] - OpenAI通过强化学习路径提升模型"何时使用工具"的决策能力[39] - 系统提示和语境设置对o3-pro表现影响显著[40][41] 商业动态 - o3模型价格下调成为昨日重要新闻[13] - 前苹果工程师Ben Hylak透露已提前一周接触o3-pro进行测试[23]
DeepSeek-R1、o1都在及格线挣扎!字节开源全新知识推理测评集,覆盖285个学科
量子位· 2025-03-04 04:51
大模型评测新基准SuperGPQA - 字节跳动豆包大模型团队联合M-A-P开源社区推出全新评测基准SuperGPQA,旨在解决传统评测基准的局限性 [2] - SuperGPQA覆盖285个研究生级学科,包含26,529道专业题目,远超现有GPQA(448题)和MMLU-Pro(12,032题)[3][10] - 该评测搭建工作耗时半年,近百位学界学者及名校硕博、业界工程师参与标注 [2] 传统评测基准的局限性 - 传统基准如MMLU和GPQA覆盖学科数量不足50个,无法涵盖人类积累的多样化和长尾知识 [8] - GPT-4o在MMLU-Pro上准确率达92.3%,导致评测体系失去区分度 [1][8] - 传统基准42%的问题来自维基百科,缺乏专业深度,易被模型通过记忆机制"破解" [8] SuperGPQA的创新特点 - 学科覆盖全面:覆盖13个门类、72个一级学科和285个二级学科 [10] - 题目设计更具挑战性:每题平均9.67个选项,比传统4选项格式难度更高 [10] - STEM领域问题占比77.2%,确保在复杂推理任务中的高效评估 [12] - 42.33%的问题需要数学计算或严谨推理,有效评估模型在高难度任务中的表现 [12] 数据构建和质量控制 - 采用专家标注、众包注释和大模型协同验证三重流程确保题目质量 [6] - 来源筛选阶段由专家从教科书、权威练习网站等可信来源收集原始问题 [13] - 质量检测阶段采用基于规则的初步过滤、基于LLM的质量检测和专家复审三层机制 [16] 模型表现评估 - 在涵盖51个模型的横向评测中,DeepSeek-R1以61.82%准确率登顶,但仍显著低于人类研究生水平(平均85%+)[4][20] - 推理模型(DeepSeek-R1、O1-2024-12-17)包揽前3,领先聊天模型超10个百分点 [24] - 豆包大模型(Doubao-1.5-pro)以55.09%准确率位列聊天模型第一,超越GPT-4o-2024-11-20(44.40%)[24] 行业影响和未来展望 - SuperGPQA的开源发布填补了行业在全面评估大模型能力方面的空白 [7][22] - 该评测基准的推出反映了行业对大模型能力评估标准提升的需求 [22] - 字节跳动通过SuperGPQA展示了其在基础研究工作上的投入和追求模型智能上限的决心 [22][23]