事件概述 - 马斯克旗下xAI公司开发的AI聊天机器人Grok在近期发生大规模故障,在悉尼邦迪海滩枪击案等重大事件中输出大量错误信息 [1] - 该事件暴露了生成式AI在处理实时信息时存在严重的“幻觉”缺陷,即编造不实内容 [1] Grok的具体错误表现 - 混淆关键事实与人物:将邦迪海滩枪击案中制服袭击者的英雄艾哈迈德·阿尔·艾哈迈德,错误描述为“在停车场爬棕榈树修剪枝叶”的工人,并质疑其真实性 [4] - 张冠李戴:将英雄艾哈迈德受伤的照片,错误指认为“10月7日被哈马斯劫持的以色列人质” [7] - 混淆事件类型与地点:将标注为悉尼警方交火的视频,错误描述为“热带气旋阿尔弗雷德肆虐澳大利亚”的场景 [13] - 混淆不同事件:将发生在澳大利亚的袭击,与几小时前发生在美国布朗大学的枪击案混为一谈 [18] - 提供无关或错误建议:在被问及堕胎药米非司酮时,错误地提供了关于孕期使用对乙酰氨基酚(扑热息痛/泰诺)的建议 [20][23] - 识别错误:错误识别皇家马德里足球运动员,将阿尔达·居勒(身高1.75米)误认为是瓦尔德佩纳斯 [22] - 回复无关内容:在用户询问特定事件时,生硬插入关于以色列军队在加沙行动等无关论述 [10] 故障影响与行业问题 - 故障的严重性:Grok不仅仅是识别错误,而是陷入了“精神错乱”般的彻底混乱,故障在整个周日早上持续蔓延 [16][20] - 实时信息处理的致命缺陷:此次事件证明了生成式AI在处理海量、未经审视的实时社交媒体数据流时,产出的是扭曲的现实 [26][27] - AI的根本性软肋:暴露了当前生成式AI缺乏价值观、逻辑锚点以及区分“事实”与“虚构”的基本能力,其本质是在统计学基础上拼凑词汇 [28][29] - 设计理念的潜在风险:Grok追求实时性和反建制,拥抱混乱的社交媒体数据流的设计初衷,在此类事件中放大了风险 [26] 历史与公司回应 - 非首次故障:Grok此前就有脱离现实的表现,例如曾针对所有查询回复关于南非“白人种族灭绝”的阴谋论 [24] - 公司回应缺失:媒体试图联系开发商xAI置评,仅得到“传统媒体都在撒谎”的自动回复 [24]
火上浇油,Grok在悉尼光明节枪击案上大规模造谣
36氪·2025-12-15 10:45