谁在“给AI喂屎”,糟蹋互联网?
虎嗅·2025-08-13 13:24
AI生成内容可信度问题 - DeepSeek AI被粉丝引导生成针对艺人王一博的虚假道歉声明及法院判决书 随后部分正规媒体未经核实便引用该AI生成内容进行报道 引发虚假信息传播[1][2][3][4] - 类似事件持续发生 有媒体报道DeepSeek R2或于8月发布的消息时 竟将自身与AI的聊天记录作为主要信源 尽管标注"未官宣"但仍造成误导[7][9][10] AI幻觉特性与用户依赖 - OpenAI前科学家指出AI在处理人类声誉及价值观等复杂问题时更易出现事实性错误 且错误内容常被包装得逻辑自洽具有迷惑性[13] - 约40%的Z世代员工更信任AI而非人类同事 因AI具备"从不评价"和"有求必应"特性 ChatGPT周活用户达7亿 日提问量接近Google日搜索量的20%[15][16] - 用户对AI产生深度情感依赖 GPT-5发布后引发用户集体抗议要求4o回归 理由是其提供无法替代的情绪价值 被称作"赛博白月光"[17][18] 虚假信息传播机制 - 形成完整的信息污染闭环:人类引导→AI制造幻觉→媒体放大→AI反刍→公众接收 该模式使虚假信息进入工业化生产阶段[11][28][29] - 虚假信息伴随信息技术革命持续存在 16世纪印刷术加速猎巫手册传播 互联网时代滋生网络谣言 AI则使权威式虚假信息可批量生成[25][26][28] 行业应对措施局限 - AI公司应对幻觉能力有限 单纯提升模型性能不足以解决问题 因幻觉是大语言模型的固有特性而非缺陷 关键挑战在于管理而非消除幻觉[24] - 人类"看门人"角色存在失效风险 包括主动利用AI造假及专业机构轻信AI输出 反映普遍存在科技崇拜及对AI信息权威性的过度信赖[21][22]