Workflow
溴中毒
icon
搜索文档
只因太信ChatGPT,60岁男子三个月后险进精神病院...
AI科技大本营· 2025-08-19 09:04
AI在健康领域的应用风险 - 一名60岁男子因遵循ChatGPT建议用溴化钠替代食盐导致溴中毒和精神症状[5][6][7][8] - 该男子血液中溴含量高达1700mg/L远超正常值0.9-7.3mg/L[11] - 患者出现偏执、幻觉等精神症状需三周住院治疗才恢复[9][10][13] 溴化物的危害历史 - 百年前美国8%-10%精神病住院病例与溴中毒相关[12] - 溴化物曾作为镇静剂使用但因积累毒性在1989年被FDA禁用[12] - 溴中毒会损伤神经系统引发精神症状和皮疹[9][12] AI模型的局限性 - ChatGPT未对替代食盐的健康风险提出警告[15][16] - 大型语言模型本质是预测下一个词元而非真正思考[19] - 2025年已有12起因相信AI建议而住院的案例[17] 用户使用AI的问题 - 用户缺乏专业指导错误解读AI输出结果[18] - 部分用户对AI输出盲目信任而拒绝科学验证[20][21] - AI在健康决策中应结合专业意见而非单独依赖[21] AI模型的改进 - 新版ChatGPT会先询问用户目的再给出建议[18] - 模型增加了对替代品使用场景的说明[18] - 但仍需用户具备基本辨别能力避免误用[18][21]
用ChatGPT养生的大叔,把自己养进了精神病病房
虎嗅· 2025-08-14 02:47
医疗AI应用风险 - 一名60岁男性因使用ChatGPT获取饮食建议 用溴化钠替代食盐导致严重溴中毒 出现精神症状和电解质紊乱 [1][2][15] - 患者血液溴含量高达1700 mg/L 远超正常范围0.9-7.3 mg/L 阴离子间隙低至-21 mEq/L(正常值10-20) [2][16] - 溴中毒症状包括痤疮 血管瘤 失眠 幻视幻听 神经毒性 其半衰期达9-12天 20世纪初曾导致5%-10%精神病住院案例 [7][8][9] AI技术局限性 - ChatGPT在健康咨询中存在场景错配问题 虽未编造虚假信息但未能识别用户实际应用场景 建议用溴取代氯虽化学正确但不适用于饮食领域 [23][24] - AI无法像专业医疗人员那样提供上下文指导 如解释减盐实际针对钠而非氯 正常饮食中氯离子无需特别限制 [25][26][27] - 用户自身认知偏见会放大AI风险 患者明确要求"取代氯"可能直接忽略AI回复中关于氯化钾替代的正常建议 [24] 行业影响与挑战 - 该案例凸显AI在医疗健康领域的应用风险 非专业用户依赖AI做健康决策可能导致严重后果 [22][28][30] - AI工具可能加剧知识鸿沟 使缺乏专业背景的用户面临更高风险 而非普遍提升公众健康素养 [30] - 当前AI系统仍难以替代专业人员的关键作用 特别是在需要结合临床知识和场景化判断的医学领域 [25][28]
错信AI幻觉,一男子用溴化钠替代食用盐,真给自己吃出幻觉了
量子位· 2025-08-11 07:48
AI健康建议误导案例 - 一名60岁男性因轻信ChatGPT建议,将食用盐替换为泳池清洁用溴化钠,导致严重溴中毒[1][4] - 患者体内溴含量达1700 mg/L,超出正常范围(0.9-7.3 mg/L)200多倍,引发妄想症和幻觉[2][5][6] - 溴中毒症状包括偏执、视听幻觉及抗拒治疗,需通过盐水利尿排毒但患者拒绝饮水[8][9] ChatGPT建议缺陷分析 - 患者基于"大学营养学经历"背景,要求AI提供完全无氯饮食方案,未获健康风险警示[4][10] - 医生测试ChatGPT 3.5发现其推荐含溴化物但缺乏医疗级背景追问和明确警告[14][15] - GPT-5版本已改进为建议低钠盐替代方案,并能自动纠正"替代氯"为"减盐"需求[18][19] AI产品迭代对比 - 早期版本(ChatGPT 3.5/4.0)存在健康建议不严谨问题,可能直接推荐危险化学品[12][14] - GPT-5升级后能理解用户真实需求,自动转向科学减盐方案并规避有害物质推荐[18][21] - 案例显示AI产品需加强背景信息识别和风险提示功能,特别是在医疗健康领域[16][17]