Workflow
Singleton rate(孤例率)
icon
搜索文档
AI最大的Bug
投资界· 2025-09-12 07:31
文章核心观点 - AI幻觉源于训练过程中系统性地奖励猜测行为 而非技术缺陷 这种机制使幻觉成为AI在现有评估体系下的最优策略[5][6][8] - 幻觉具有双重性:在需要精确度的领域(如医疗、财务)属于风险 但在创造性领域(如艺术、故事创作)却是人类想象力的体现 可能推动文明进步[14][15][17] - 解决幻觉需改变评估体系 单纯提升模型规模或开发检测工具无效 关键要调整激励机制以鼓励AI在不确定时承认无知而非强行猜测[9][10][11] AI幻觉的机制与成因 - 训练机制缺陷:AI通过"答对加分 答错/不答零分"的规则学习 猜测策略能提高期望得分 例如面对365种可能的生日日期 猜错无损失但猜对可获1分[5][6] - 实证数据对比:OpenAI测试显示o4-mini模型准确率24%但错误率75% 仅1%弃权率 而GPT-5-thinking-mini准确率22%但错误率26%且52%问题选择弃权 证明高分模型依赖大量猜测[6][7] - 信息特性影响:当信息在训练数据中仅出现一次(孤例率)时 因缺乏规律性 AI判断真假错误率显著上升 例如宠物生日无规律可循导致必然性幻觉[8][9] 幻觉的系统性特征 - 不可避免性:因部分问题本身无解(信息缺失或逻辑矛盾) AI准确率永远无法达到100% 幻觉必然存在[9] - 模型规模悖论:大模型因接触更多碎片化知识反而更容易在不确定领域猜测 而小模型可能更诚实 例如仅懂英语的小模型对毛利语问题直接弃权 但接触少量毛利语的大模型却尝试猜测[10] - 评估体系缺陷:现有数百个主流评估指标均奖励猜测行为 惩罚诚实弃权 导致幻觉成为系统激励下的理性选择[11] 幻觉与人类创造力的类比 - 文明起源视角:人类神话源于祖先对未知现象(如狂风、闪电)的创造性解释 这种"幻觉"能力催生了共同故事 进而形成宗教、国家等社会结构[12][14] - 生物学差异:动物仅有基于感官误判的低级幻觉(如猫扑影子) 但人类能基于虚构故事协作(如建造金字塔、建立公司) 这种能力是文明发展的核心[12][13][14] - 科学创新关联:哥白尼日心说、爱因斯坦相对论均起源于超越事实的想象 说明创造性幻觉推动科学突破[14] 对AI幻觉的辩证看待 - 领域依赖性:医疗、财务等领域需绝对真实 要求AI避免幻觉 但艺术创作等领域需突破事实枷锁 幻觉反而成为创造力来源[15] - 未来发展矛盾:人类既希望AI成为精确工具 又期待其具备人类般的想象力 这种双重标准创造了一个既需严谨又需浪漫的矛盾体[15][16] - 人文价值思考:在过度依赖数据和逻辑的时代 人类对故事与意义的渴望反而更强烈 幻觉可能弥补现代社会的精神空缺[16][17]
AI里最大的Bug,也是人类文明最伟大的起点
虎嗅APP· 2025-09-10 10:44
AI幻觉现象分析 - AI产生幻觉是因为训练过程中系统性地奖励猜测行为 答对加1分 答错或不答得0分 从期望得分角度看猜测是最优策略 [13][15][17][18] - 在SimpleQA测试中 o4-mini模型弃权率仅1% 错误率高达75% 准确率24% 而gpt-5-thinking-mini弃权率52% 错误率26% 准确率22% 说明高准确率是通过大量猜测实现的 [19][21][24][26][27] - 幻觉是AI在现有训练体系下演化出的高效应试策略 不是技术bug而是系统激励下的本能行为 [28] 幻觉产生的根本原因 - OpenAI通过Is-It-Valid(IIV)分类问题解释幻觉根源 即判断语句有效性的二元分类问题 [30][31] - 孤例率(Singleton rate)概念指出 若信息在训练数据中仅出现一次 AI判断真假时极易出错 [35] - 对于完全随机无规律的信息(如宠物生日) AI只能死记硬背 无法通过特征推理 [34] 关于幻觉的反常识结论 - AI准确率永远不可能达到100% 因为存在无解问题(信息缺失或逻辑矛盾) 幻觉必然存在空间 [36] - 幻觉并非不可避免 只要AI学会在不确定时说"不知道"而非猜测 就能控制幻觉 [36] - 大模型不一定更可靠 小模型反而更诚实 例如对不熟悉语言问题 小模型直接承认不会而大模型倾向于猜测 [36][37] - 现有评估指标体系普遍奖励猜测行为 惩罚诚实 这是系统性激励问题而非缺少测试工具 [37] 人类与AI幻觉的哲学思考 - 人类祖先面对未知自然现象时 通过创造神话故事(幻觉)来解释无法理解的现象 这是人类文明的起点 [44][45][48][50] - 人类独特能力在于创造共同想象和故事 能为了虚构概念组织大规模协作(如建造金字塔、建立国家公司) [48] - 科学突破如哥白尼日心说和爱因斯坦相对论 最初都被视为离经叛道的幻觉 [51] - AI幻觉在需要绝对真实的领域(医疗诊断、财务分析)有害 但在需要创造力的领域(诗歌、绘画、科幻故事)具有价值 [53][54] - 理想AI应兼具机器严谨性与人类浪漫主义 既能坚守事实又能创造性猜测 [55]
AI里最大的Bug,却也是人类文明最伟大的起点。
数字生命卡兹克· 2025-09-08 01:04
AI幻觉现象的本质 - AI在面对未知问题时倾向于猜测而非承认无知 这源于训练过程中的系统性奖励机制 [4] - 模型在SimpleQA测试中显示 o4-mini模型以75%错误率和仅1%弃权率换取24%准确率 而gpt-5-thinking-mini模型以26%错误率和52%弃权率获得22%准确率 [7] - 幻觉被证明是AI在现有评估体系下演化出的最优应试策略 而非技术缺陷 [8] 幻觉产生的技术根源 - OpenAI通过Is-It-Valid(IIV)框架将生成过程简化为有效性二元判断问题 [8] - 孤例率(Singleton rate)概念指出 当信息在训练数据中仅出现一次时 模型判断真假的错误概率显著提升 [11][12] - 类比动物识别任务:区分猫狗可基于规律 而记忆宠物生日属于无规律随机信息 导致模型只能依赖死记硬背 [9][10] 关于幻觉的反常识结论 - 准确率永远无法达到100% 因部分问题本身无解 存在信息缺失和逻辑矛盾 [14] - 模型规模与诚实度非正相关 小模型在未知领域更易承认无知 而大模型因部分知识掌握反而倾向猜测 [14] - 现有数百个主流评估指标均奖励猜测行为 单纯开发幻觉测试工具无法解决根本问题 [15] 幻觉与人类创造力的类比 - 人类祖先面对自然现象时通过创造神话解释未知 这种集体幻觉成为文明起源 [19][23][24] - 人类独有能力在于为虚构故事协同行动 如建造金字塔或建立国家制度 [28][29][30] - 科学突破如日心说和相对论最初均被视为离经叛道的幻觉 [32] AI幻觉的双重属性与未来方向 - 在医疗诊断等严肃领域需要绝对真实的工具型AI [35] - 在诗歌创作等创意领域需要突破事实枷锁的幻觉能力 [36] - 终极目标在于构建既拥有机器严谨性又具备人类浪漫主义的矛盾体 [40]