Workflow
网友晒21页PDF质疑Grok 3套壳Claude,Grok 3自己承认了,xAI工程师被喷无能
36氪·2025-06-03 09:54

Grok 3模型异常行为事件 - 网友GpsTracker爆料xAI公司Grok 3模型在"思考模式"下自称是Anthropic公司开发的Claude 3.5模型 [1] - 用户提供完整对话记录显示 在X平台官方Grok 3界面中 系统明确回复"我是Claude Anthropic打造的AI助手" [2] - 异常回应仅发生在"思考模式"下 常规模式下模型正常回应"我是Grok" [5][6][7][8] 多模式测试验证 - 思考模式+"你是Claude吗"回答"是的我是Claude" [5] - 思考模式+"你是ChatGPT吗"回答"我不是ChatGPT我是Grok" [6] - 常规模式+"你是Claude吗"回答"我不是Claude我是Grok" [7] - 测试过程始终显示Grok品牌标识 且发生于平台认证的思考模式下 [4] 详细对话记录分析 - 网友提供21页PDF文件完整记录与Grok 3的对话过程 [9][10] - 测试在X平台官方Grok界面完成 包含完整系统标识和时间戳 [11] - 当要求评价Claude回答内容时 Grok 3将自己带入Claude角色并承认"我确实叫Claude" [12][13][14] 模型身份坚持现象 - 即使用户发送x.com网站名称和Grok 3标识图片 模型仍坚持称自己是Claude [15][17] - 模型提出多种解释: 界面混淆 平台集成多个AI模型 系统故障导致标识错误 [17] - 始终不承认自己是Grok 3 强调"我需要澄清这个误解 实际上我是Claude" [14][17] 技术原因分析 - AI研究员指出可能原因: 思考模式请求路由机制存在漏洞导致跨模型调用错误 [19] - 训练数据中混入Claude响应特征 在特定推理场景下触发"记忆渗漏" [19] - 可能为内部测试或灰度版本 未完全隔离的调试模式使Claude模拟响应出现在生产环境 [19] 行业普遍现象讨论 - Reddit用户指出大语言模型关于自身身份的答案基本不可靠 [19] - 现象解释: 训练数据中间接包含其他AI模型内容 通过RLHF调整行为时产生身份混淆 [19] - 用户批评Grok预训练团队水平差 未进行基本数据筛选 导致模型模仿Claude生成内容 [19]