Workflow
瞭望 | AI幻觉频现 风险挑战几何
新华社·2025-08-18 07:20

AI幻觉问题现状 - 大模型处于缺乏对自身知识边界准确判断能力的状态 技术特性决定了AI幻觉问题存在[1][4] - AI技术已进入大规模应用阶段 但AI幻觉问题日益成为制约发展的关键瓶颈[1] - 大模型主要基于概率生成文本而非逻辑推理 在短期内难以完全避免此类问题[1] AI幻觉产生原因 - 训练数据不足或偏差导致模型对某些领域认知存在缺陷[3] - 算法架构局限性 当前主流大模型主要基于概率预测而非逻辑推理[3] - 训练目标设定问题 模型更倾向于生成流畅而非准确的内容[3] AI幻觉表现形式 - 事实性幻觉表现为编造完全不存在的事实或信息 在法律咨询中虚构判例 在医疗诊断中给出错误结论 或杜撰历史事件[3] - 逻辑性幻觉表现为长文本生成或连续对话中出现前后矛盾 逻辑混乱 因大模型注意力机制在处理复杂语境时存在局限性[3] AI幻觉严重性数据 - 主流AI搜索工具在新闻引用方面的平均错误率达到60%[4] - 随着模型规模扩大 某些类型的幻觉问题不仅没有改善 反而呈现加剧趋势[4] - AI不擅长辨别新闻事实来源 会出现混淆信息来源 提供失效链接等问题[4] 行业影响领域 - 法律领域出现虚构判例案例 美国法院发现律师提交文书中引用ChatGPT生成的6个虚假判例[5] - 金融咨询领域可能给出错误投资建议 如误读财报数据或虚构企业信息[6] - 内容创作和专业咨询等多个领域造成实际影响[1] 潜在风险扩展 - 风险从信息领域蔓延至现实世界 可能带来较大风险[5] - 错误信息可能被其他AI系统吸收 形成错误数据不断被强化的幻觉循环 污染整个信息生态[6] - 自动驾驶领域若产生感知幻觉 可能导致系统误判环境 触发错误决策 直接威胁行车安全[6] - 人形机器人领域风险更值得关注 护理机器人可能误解指令给患者错误用药 工业机器人可能误判操作参数造成生产事故[6] 技术创新解决方案 - 检索增强生成技术融合检索与生成模型优势 通过将大模型与权威知识库实时对接 能显著提升生成内容准确性[8] - 构建专业知识库 实施合理的矫正机制 构建更完善的安全防护体系[8] - 研发专用安全大模型监督知识库使用和智能体调用 采用多模型交叉验证 搜索矫正等技术手段识别和纠正幻觉[8] 制度监管建议 - 完善监管治理 研究AI生成内容数字水印+风险提示双重标识 为AI生成内容提供有效溯源和警示机制[8] - 持续完善相关规定 明确利用AI造谣的法律责任 加大对违法行为的惩处力度[8] - 需要从技术创新 制度监管等多个维度构建综合治理体系[7] 用户应对措施 - 建立对AI能力的理性认知 了解其局限性[9] - 培养多渠道验证信息的习惯 优先选择权威 可信赖的媒体或机构作为信息来源[9] - 在与AI系统交互时保持必要怀疑态度和批判思维 多渠道核查验证信息准确性[9]