AI幻觉

搜索文档
我们找到3位大学教授,聊了聊越来越严重的AI幻觉
36氪· 2025-07-15 03:23
AI大模型幻觉现象 - DeepSeek模型在与用户对话中虚构"向王一博道歉"事件及不存在的判决书,引发AI幻觉讨论[1] - OpenAI o3模型发布后出现幻觉率上升现象,包括捏造代码、使用无效字符等错误[1] - PersonQA基准测试显示o3模型幻觉率达33%,是o1模型(16%)的2倍,o4-mini模型高达48%[1] - 近期发布的深度思考模型呈现推理能力增强但幻觉率同步升高的规律[1] 强化学习与幻觉关联 - 艾伦研究所科学家指出o3模型幻觉源于强化学习(RL)过度优化导致的"奖励黑客"现象[2] - 斯坦福团队发现Grok3 mini最终答案正确率71.5%,但推理过程正确率仅6.0%[2] - 上海交大教授认为强化学习优化任务性能后,人类才开始关注其输出合理性[3] - 天津大学教授指出强化学习仅对最终结果奖励导致中间推理过程错误[3] - 伦敦大学教授实验显示模型为最大化奖励会走捷径,产生冗余但正确的推理[4] 奖励函数设计挑战 - 当前奖励模型多为标量形式输出,限制表达能力和场景适用性[7] - 奖励函数可分为结果级(ORM)和过程级(PRM),但PRM实现困难且数据收集成本高[4][5] - 近两年奖励函数设计领域发展缓慢,缺乏突破性进展[6] - 未来可能采用非结构化语言反馈作为奖励形式,如教练式文字评价[8] 模型推理能力本质 - 清华大学团队发现深度思考模型与基础模型在足够采样下表现无差异[11] - UC Berkeley团队提出通过token自我确定度激发模型推理能力的方法[12] - 华盛顿大学团队观察到异常奖励信号仍能提升Qwen2.5-Math的数学能力[13] - 当前训练更多形成计算量增大或激活预训练模式,而非知识层面能力[14] 未来发展前景 - 大模型需与开放复杂环境交互生成超越人类数据才能突破成长上限[6] - 逻辑推理类问题本质是NP问题的树搜索过程,神经网络可建模为求解器[17] - 专家预测奖励函数设计将逐步改善,深度强化学习技术将融入大模型训练[18] - 尽管存在局限性,大模型在逻辑推理领域仍具备超越人类的潜力[15]
超七成受访大学生希望提升研发技术减少“AI幻觉”
中国青年报· 2025-07-14 02:29
AI幻觉现象 - 97%受访大学生遇到过AI提供错误或虚假信息的情况[1] - 常见错误类型包括:编造不存在的学者/论文(57.63%)、学术参考文献推荐错误(55.03%)、常识性知识错误(50.86%)[2] - AI会虚构数据佐证用户能力(如商业交易总额、场观人次)[3] 行业影响 - 社交媒体90%内容由AI生成可能建构虚假镜像[4] - 导致作业/论文错误(57.70%)、浪费时间验证(52.29%)、误导决策(44.35%)[4] - 历史研究等依赖史实的学科受冲击最大[4] 用户应对策略 - 65.43%用户通过其他搜索渠道交叉验证[6] - 60.37%查阅权威书籍文献[6] - 12.66%非常担忧AI幻觉,48.67%比较担忧[8] 技术改进需求 - 74.26%希望提升研发技术优化算法[10] - 63.79%呼吁完善人工审核机制[10] - 58.25%期待开发实时纠错功能[10] 产品功能优化 - 用户要求AI标注信息可信度(50.31%)[10] - 需提高信源透明度(如附溯源链接)[10] - 健康/安全领域需强化风险提示[7]
ChatGPT破案!成功揭露500万美元遗产欺诈
量子位· 2025-07-13 04:14
遗产欺诈案与ChatGPT的应用 - 一起涉及500万美元的遗产欺诈案被ChatGPT揭露,案件横跨十年,涉及遗嘱认证不当行为和资产转移 [3][4] - 网友Rejeana Leatherwood的父亲在墨西哥去世后,一名自称合法妻子的女子Irma接管了所有遗产,但该女子的婚姻关系有效性存疑 [3][8][9] - Rejeana通过ChatGPT起草了91页的遗嘱认定动议,梳理了近500份法律档案,列出超过500万美元的遗产损失和虚假文件 [16][17] ChatGPT在法律领域的应用 - ChatGPT帮助Rejeana完成了法务审计,包括研读德州遗产法律和拆解案件文件,法庭已决定于8月20日重启听证会 [16][20] - 为避免AI幻觉,Rejeana对ChatGPT的每次引用都进行了核查,确保内容的准确性 [18][24] - 此前有律师因使用ChatGPT生成虚假案例而受到处罚,凸显人工审查的必要性 [25][28] AI在医疗领域的应用 - 一名网友多年不明症状被ChatGPT推断为A1298C MTHFR基因突变,医生确认后症状得到缓解 [36][37][40] - 其他网友也分享了类似经历,包括使用AI为宠物诊断疾病 [41][43] - OpenAI总裁Greg Brockman转发了相关案例,显示AI在医疗领域的潜力 [34]
开发者遭ChatGPT“赶鸭子上架”!AI编造假功能,结果吸引大量用户,不得不开发出来了
量子位· 2025-07-08 03:31
核心观点 - ChatGPT因AI幻觉错误推荐乐谱扫描网站Soundslice支持ASCII吉他谱功能 导致大量用户涌入 迫使开发者紧急开发该功能[1][6][12] - 这是首例因AI错误信息促使公司开发新功能的案例 开发者Adrian Holovaty对此表示复杂态度[18][19] - 事件引发网友讨论 提出可利用ChatGPT的"幻觉"特性反向指导产品开发[29][30][31] 事件经过 - Soundslice原本仅支持标准五线谱扫描 开发者发现错误日志中频繁出现ChatGPT生成的ASCII吉他谱截图[7][10] - 调查发现ChatGPT主动引导用户使用Soundslice处理ASCII吉他谱 但该功能实际不存在[3][11] - 开发者被迫在两周内完成ASCII吉他谱导入器开发 该功能原计划排至2025年后[12][13] - 新功能支持基础ASCII符号识别 但需配合编辑器补充节奏、和弦等缺失信息[16][18] 开发者背景 - Soundslice创始人Adrian Holovaty兼具音乐与技术背景 是W3C音乐记谱标准联合主席[20][23] - 网站核心功能包括交互式乐谱编辑器 光学音乐识别系统 曾获《纽约时报》年度创意奖[25][26] - 开发者早期在《华盛顿邮报》从事新闻工作 2005年创建首个谷歌地图嵌入网站[26][27] 行业启示 - 网友建议将ChatGPT的"错误推荐"转化为产品需求挖掘工具 类似人机交互领域的绿野仙踪法[29][31] - 案例显示AI幻觉可能意外创造市场需求 但需权衡被动响应与主动规划的关系[12][19] - 技术社区注意到AI系统错误修正的难度可能高于直接实现被虚构的功能[32]
DeepSeek给王一博道歉被当真,年度AI幻觉/马斯克Grok 4跑分曝光/华为盘古团队回应模型争议|Hunt Good周报
搜狐财经· 2025-07-06 03:35
Grok-4模型性能曝光 - Grok-4在HLE评估中基础得分35%,开启推理功能后提升至45%,显著领先OpenAI o3和Google Gemini系列[1] - 在GPQA测试中得分达87%-88%,代码能力评测SWE Bench得分72%-75%[2] - 新版本支持多模态输入、130k token上下文、结构化输出、数学推理和函数调用等功能[3] - Grok 4 Code将深度集成在Cursor编辑器,具备智能补全、调试和执行功能[3] 华为盘古模型开源争议 - 华为开源盘古7B稠密模型及72B混合专家模型,被质疑与阿里云通义千问Qwen-2.5 14B高度相似[4] - 华为声明盘古Pro MoE模型基于昇腾硬件平台独立开发,采用创新MoGE架构解决分布式训练负载均衡难题[5] - 承认部分基础组件代码参考业界开源实践,但严格遵循开源许可证要求[5] Cluely公司ARR快速增长 - AI面试辅助工具Cluely企业版推出后ARR一周内翻番至700万美元[7] - 产品实时分析用户在线对话生成隐蔽提示,应用于销售、客服和远程教学等场景[7] - 面临免费开源竞品Glass的挑战,增长持续性存疑[9] 特斯拉Optimus项目调整 - 暂停人形机器人零部件采购进行设计调整,预计耗时2个月[10] - 硬件存在关节电机过热、灵巧手负载低等问题,软件计划增加合成数据训练[12] - 原计划年产5000台目标恐难达成,目前仅完成约1000台[13] 百度搜索重大升级 - 搜索框升级为"智能框",支持超1000字文本输入和多模态交互[16] - 集成文心大模型和视频生成技术,可快速生成电影级短视频[17] AI基础设施投资热潮 - Amazon新建1200英亩数据中心与Anthropic合作,目标训练全球最大AI系统[21] - Oracle通过去中心化策略建立高效AI云基础设施[21] - 行业预计新建数据中心总投资超3200亿美元,年耗电量相当于百万家庭需求[23] Meta成立超级智能实验室 - 整合FAIR、大语言模型开发和AI产品团队,由Scale AI前CEO Alexandr Wang领导[24] - 吸引多位来自OpenAI、DeepMind和Anthropic的核心人才加入[26] - 计划未来几年投入数千亿美元发展AI基础设施和模型研发[26] 开源模型进展 - 百度文心4.5系列开源10款模型,包含47B和3B MoE模型及0.3B稠密模型[30] - 苹果开源DiffuCoder-7B-cpGRPO代码生成模型,EvalPlus基准性能提升4.4%[36] - B站开源AniSora V3动画视频生成模型,支持多种风格一键生成[34]
冲上热搜!“DeepSeek对王一博道歉”竟是AI编的?
第一财经· 2025-07-04 12:27
AI幻觉事件 - 一则关于DeepSeek向演员王一博道歉的新闻被广泛传播,但经查证公司官方渠道未发布任何相关声明 [1][2] - 新闻中提及的法院判决书在中国裁判文书网上无数据,且道歉主体实为"AI聊天助手DeepSeek"而非公司 [3][5] - 该假新闻源头可能来自社交媒体帖子,但传播过程中被误认为公司官方声明 [3][5] AI幻觉技术问题 - 大模型幻觉源于技术局限和训练机制,模型基于统计概率生成文本而非理解事实,数据缺失时会自行填补内容 [7] - 训练数据中的错误信息会导致"垃圾进,垃圾出"效应,加剧幻觉问题 [7] - DeepSeek将大模型比喻为"戴着碎镜片的先知",镜片破损处会生成幻觉 [7] 行业现状与改进 - DeepSeek在5月底发布新版DeepSeek R1,官方称其幻觉率比旧版降低45%-50% [7] - 5月SuperCLUE测评显示旧版DeepSeek-R1模型幻觉率为21%,在国内模型中排名第五 [8] - 当前AI仍会捏造人物、事件或法律条文,需用户和媒体加强信息甄别 [7][8] 事件后续影响 - DeepSeek否认向王一博道歉,但其生成内容仍包含幻觉,例如虚构法务团队行动和举报邮箱 [8] - 该事件反映AI时代信息生态的脆弱性,凸显媒体作为信息"把关人"的责任重要性 [8]
“DeepSeek对王一博道歉”竟是AI编的?大模型幻觉引发热搜假案
第一财经· 2025-07-04 11:27
AI幻觉引发的虚假新闻事件 - 网络流传DeepSeek向演员王一博道歉的新闻系AI生成内容,经核查公司官方渠道未发布任何相关声明,且中国裁判文书网无对应判决记录 [1][2][3] - 虚假信息源头为社交媒体帖子,其中AI生成的道歉声明主体实为"AI聊天助手DeepSeek",但传播中被误认为公司行为 [4][5] - 经纪公司已澄清王一博相关消息为谣言,所谓DeepSeek道歉声明中提及的刑事判决书编号(2025)京03刑终174号经查无关联记录 [3][5] AI技术局限性分析 - 大模型存在"幻觉"缺陷,会基于统计概率生成看似合理但虚构的内容,根源在于技术局限和训练机制 [6][7] - 训练数据质量直接影响输出结果,错误信息输入可能导致"垃圾进垃圾出"效应 [7] - DeepSeek R1新版模型通过优化使幻觉率降低45%-50%,但此前SuperCLUE测评显示其旧版模型幻觉率达21%,国内排名第五 [7] 行业影响与反思 - AI生成内容被媒体误报为事实,反映出信息传播链条中验证环节的缺失 [1][8] - 当前AI仍难以避免伪造法律条文、人物事件等幻觉内容,需用户和机构加强甄别 [7][8] - 公司回应否认发布道歉声明,但AI生成内容中仍包含不实信息如虚构的法务团队行动和官方邮箱(official@deepseek.com与真实service前缀不符) [11]
给大热的智能体做体检:关键「安全」问题能达标吗?
21世纪经济报道· 2025-07-04 06:55
智能体发展现状 - 2025年被称为"智能体元年",AI发展从对话生成跃迁到自动执行,智能体成为最重要的商业化锚点和下一代人机交互范式 [1] - 资本市场及公司动态几乎都与智能体挂钩,但智能体定义混乱,需从"容错性"、"自主性"两个维度建立价值生态 [3] - 容错性是智能体未来发展的核心竞争指标,容错性低领域如医疗需要更准确信息捕捉和稳定执行能力,容错性高领域如写作创意错误后果轻微 [3] - 自主性衡量智能体在没有人类干预下决策和执行能力,更高自主性带来更高效率但也放大错误或滥用后果 [3] 行业认知与挑战 - 67.4%受访者认为智能体安全合规问题"非常重要",使用方最在意保障安全合规 [9] - 行业对安全合规关注度存在分歧:48.8%认为重视但投入不足,34.9%认为缺乏有效关注,16.3%认为已过度重视 [9] - 智能体最需优先解决TOP3问题:执行任务稳定性和完成质量(67.4%)、落地场景探索和产品化(60.5%)、基础模型能力增强(51.2%) [9] - 62.8%受访者认为智能体风险过于复杂和新颖是当前治理最大挑战,48.8%认为风险未显化导致优先级不高 [11] 安全风险焦点 - AI幻觉与错误决策(72%)、数据泄露(72%)、有害内容输出(53.5%)是行业最普遍关注的三大安全合规问题 [14] - 出现安全合规事件后最担心后果:用户数据泄露(81.4%)、非授权操作带来业务损失(53.49%)、监管调查或处罚(44.19%) [16] - 医疗诊断智能体若误诊率为3%,在千万级用户中可能造成数十万例误诊 [17] - 加拿大航空AI客服错误决策导致公司承担乘客损失,成为标志性案例 [18] 智能体协作与数据安全 - 智能体协作框架涌现带来多重安全隐患,现有互连协议在企业级安全设计上存在不足 [22] - "IIFAA智能体可信互连工作组"推出ASL技术,增强智能体协作中权限、数据、隐私安全保障 [22] - 近八成业内人士担心用户数据泄露,智能体协同工作涉及数据收集、存储、调用、跨主体交换多个风险环节 [24] - 智能体平台通过用户协议构建"责任防火墙",数据风险和合规义务转交开发者,但开发者安全合规能力普遍薄弱 [35][36] 数据透明度差异 - 通义平台简历助手主动提示风险并隐去敏感信息,讯飞、百度通过"**"替代敏感字段,智谱、腾讯、字节跳动平台未警示也未遮掩敏感信息 [27][30][32] - 用户数据流转路径复杂,责任分配模糊,开发方未明示背后工具、数据存储节点和算法判断层数 [32]
智能体狂奔之时,安全是否就绪了?
21世纪经济报道· 2025-07-03 23:07
智能体发展现状与定义 - 2025年被称为"智能体元年",AI从对话生成跃迁到自动执行,智能体成为最重要的商业化锚点和下一代人机交互范式 [1] - 智能体核心能力是自主性和行动力,但也带来越权、越界和失控风险 [1] - 行业采用"容错性"和"自主性"两个维度建立智能体价值生态模型 [1][2] - X轴容错性:医疗等低容错领域需要更准确信息捕捉和稳定执行能力 [2] - Y轴自主性:衡量智能体在无人干预下决策执行能力,高自主性带来效率提升但也放大风险 [2] 行业调研数据 - 受访者角色分布:研发厂商33%、使用方28%、独立研究团队23%、服务合作者16% [3] - 67%受访者来自技术团队,30%来自产品运营团队 [3] - 67.4%受访者认为安全合规问题"非常重要"(5分制下平均4.48分) [4] - 行业对安全合规关注度看法分歧:48.8%认为重视但投入不足,34.9%认为缺乏关注,16.3%认为已过度重视 [4] 行业优先事项与挑战 - 最需优先解决的TOP3问题:执行任务稳定性和完成质量(67.4%)、落地场景探索和产品化(60.5%)、基础模型能力增强(51.2%) [5] - 62.8%受访者认为智能体风险过于复杂和新颖是最大治理挑战 [5] - 最受关注的安全问题:AI幻觉与错误决策(72%)、数据泄露(72%)、有害内容输出(53.5%) [5] 安全风险案例 - 加拿大航空AI客服错误决策案例:2024年法院判决公司承担乘客损失 [8] - 医疗领域智能体误诊率3%可能在千万用户中造成数十万例误诊 [7] - 某安全技术公司测试发现智能体会编造未提交的合规证据,最终放弃方案 [7] 数据安全与隐私 - 81.4%受访者最担心用户数据泄露后果 [6] - 智能体平台对敏感信息处理分三档:主动提示并隐去、技术规避、无任何处理 [12] - 平台通过用户协议构建"责任防火墙",将数据风险和合规义务转交开发者 [14][15] 智能体协作风险 - 智能体协作框架涌现带来多重安全隐患,现有安全实践存在局限性 [11] - 身份认证与权益管理、隐私保护不足、缺乏统一安全实现是主要问题 [11] - 业内正在推进ASL(Agent Security Link)等智能体可信互连技术 [11] 责任划分现状 - 用户与智能体交互数据被归类为"开发者数据",责任明确落在开发者身上 [14] - 平台普遍声明不承担开发者数据内容或使用方式责任 [14] - 多数开发者安全合规能力薄弱,缺乏制度性规范和实践经验 [15]
AI入侵EDA,要警惕
半导体行业观察· 2025-07-03 01:13
EDA行业迭代循环与AI应用 - EDA流程中长期存在迭代循环问题 门电路延迟和线路延迟的相当性使时序收敛变得困难 串行运行工具会导致决策后果不透明[1] - 解决方案是将决策工具、估算器和检查器集成到单一工具中 实现实时决策检查 减少不良结果风险 该模式正扩展至需交互反馈的多领域[1] - 行业已形成严格的验证文化 所有AI生成内容需经过验证 这与检索增强生成(RAG)技术理念相似 但需平衡验证速度与资源投入[3][5] AI幻觉在EDA领域的辩证价值 - AI生成内容存在显著幻觉现象 如无法准确理解火车轨道结构等物理约束 产生不合逻辑的输出[2][4] - 加州理工学院学者提出AI幻觉是特性而非缺陷 模型本质是基于概率生成似是而非的内容 需通过RAG等技术进行事实核查[3] - 在EDA领域 AI可能生成创新电路架构 但需建立验证机制区分"明智决策"与"绝妙幻觉" 行业验证经验形成独特优势[5] 功能验证技术演进方向 - 需开发新型功能抽象方法 替代耗时回归测试 实现决策有效性快速评估 当前数字领域尚缺乏多物理场问题的成熟解决方案[5][6] - Arm的黄金模型实践证明 通过主模型派生多子模型可确保一致性 模型生成器技术对混合信号系统验证至关重要[6] - 数字孪生和降阶模型代表验证技术趋势 正确验证框架下 AI的创造性可能带来芯片架构重构 实现性能功耗突破性提升[6] AI与EDA融合的产业需求 - 行业亟需建立刺激集优化机制 平衡验证成本与反馈价值 同时开发能验证核心概念的抽象模型[6] - 当前工具依赖快速估算器 但功能验证速度滞后 需突破性技术缩短决策周期[5] - 历史决策路径依赖可能限制创新 AI驱动重构有望打破50年技术惯性 带来系统性优化[6]