文章核心观点 - 以AI工具大规模生成的劣质、重复或无意义内容(被称为“AI垃圾”或“Slop”)正在互联网上泛滥,其背后推手是技术的滥用与对经济利益的追逐,这种现象正在侵蚀信息质量、模糊真实与虚构的界限,并引发信任危机,应对措施包括技术标注、行业标准及用户自身的辨别与支持[1][2][4][5][6][7][8] “AI垃圾”的定义与特征 - “AI垃圾”特指由AI工具生成的大量劣质、重复或无意义的文字、图像或视频,常见于社交媒体和自动化内容农场[2] - 其与旨在欺骗的“深度伪造”或属于技术错误的“AI幻觉”不同,“AI垃圾”的错误更多源于敷衍而非欺骗或技术局限,范围更广且更随意[3] - 这类内容正遍布各平台,例如OpenAI的Sora可几秒内生成荒诞视频,LinkedIn上充斥AI包装的“专家箴言”,谷歌搜索结果会出现“姜黄能治愈心碎”等无稽之谈[2] “AI垃圾”泛滥的成因 - 技术层面:AI技术日益强大且成本低廉,ChatGPT、Gemini、Claude、Sora、Veo等工具使几秒内生成文本、图像与视频成为可能,为内容农场的海量生产提供了便利[4] - 经济驱动:滥用AI工具海量生成内容旨在博取点击和广告收入,例如有YouTube频道仅凭4个视频就积累了420万订阅和数亿播放量[4] - 平台算法:平台算法往往更看重内容的点击与互动数据而非质量,发布越频繁获得关注越多,无形中助推了“AI垃圾”的传播[4] “AI垃圾”的影响与后果 - 数量爆发时,垃圾信息充斥网络会导致可信来源在搜索结果中排名下降,真实与虚构的界限变得模糊[5] - 信任危机会带来切实后果,当无人能辨真假时,错误信息传播得更快[6] 行业应对措施与挑战 - 部分公司已开始尝试为AI生成内容添加标签并调整算法,例如Spotify降低劣质内容推荐权重,谷歌、抖音与OpenAI等公司承诺推出水印系统[7] - 行业正推动C2PA(内容来源与真实性联盟)标准,由Adobe、亚马逊、微软、Meta等企业共同支持,通过元数据嵌入记录数字文件的创建与编辑过程以追溯来源[7] - 应对措施面临挑战,水印和元数据可能被剥离、忽略或转码失效,且多数平台尚未形成一致的执行规范[7] - 最有效的防护在于人类自身,包括放慢节奏、核实来源以及支持坚持用心创作的作者[7][8]
AI与人|“AI垃圾”泛滥,最后的防线在人类自身
科技日报·2025-12-16 05:26