文章核心观点 - 社交媒体平台普遍存在的负面现象(如回音室效应、影响力集中、极端声音放大)可能并非主要由算法推荐导致,而是现实社会分裂的映射,多种平台干预策略在模拟实验中均未能有效修复系统极化问题 [7][9][17] 信息茧房与相关概念 - “信息茧房”指个体在社交媒体上只接触某一类信息,导致对世界的理解被困在狭小的信息之茧中 [1] - 个性化推荐算法的广泛应用加剧了人们对“信息茧房”、“同温层效应”或“过滤气泡”的担忧 [1][2] - 有学者指出,对“同温层效应”的担忧可能夸大了事实,且缺乏其是否真实存在的清晰实证研究 [2] 关于打破信息茧房的研究发现 - 杜克大学研究发现,让用户在社交媒体上接触对立观点,并未帮助其反思自身,反而使其政治立场更加极端 [4] - 该研究提出“社交媒体棱镜”概念,认为社交媒体扭曲用户对自我和他人认知,导致形成错误的自我身份认同和虚假政治极化 [4] - 一种特定用户类型喜欢在网上发泄情绪、制造混乱以获取关注,这种闹剧在现实和网络中都更容易获得关注 [6] 社交媒体平台干预策略的模拟实验 - 阿姆斯特丹大学研究利用大语言模型生成500个虚拟用户构建小型社交网络进行模拟实验 [7] - 实验使用三种主流大型语言模型(ChatGPT、Llama 和 DeepSeek),系统运行一万个周期后均出现回音室效应、影响力集中和极端声音放大等负面现象 [9] - 研究测试了六种干预策略:按时间顺序推送或随机推送、淡化主流内容、平衡党派内容的桥接算法、优先发布高同理心或高推理能力帖子、隐藏社交媒体统计数据、隐藏个人简介 [9][13] - 实验结果令人沮丧,仅部分措施有轻微改善作用,无一能彻底修复极化系统,一些措施反而加剧问题 [9] - 平衡党派内容的桥接算法削弱了党派倾向与参与度联系并略微改善观点多样性,但加剧了关注度不平等 [9] - 按时间顺序推送对减少关注度不平等效果最显著,但反常识地加剧了极端内容的传播 [9][10] - 研究者承认AI模拟实验的局限性,但指出该方法有助于研究网络动力学结构和发掘社会现象的涌现过程 [11] 社交媒体与政治极化的实证研究 - 对Reddit平台过去14年间51亿条评论的分析显示,其社区结构深受用户年龄、性别与政治立场等社会因素影响 [14] - 研究发现2016年美国大选期间平台政治极化水平显著上升主要由新用户推动,老用户立场变化极小,表明极化更可能受外部政治事件驱动而非平台内部行为积累 [14] - 多数实证研究表明社交媒体并不会显著加剧社会极化现象,极化更多是现实政治分裂的映射 [17] - 即便在不存在算法干预的中性环境中,人类依然倾向于靠近观点相似的群体,面对异见时防御性强化反而使极端立场更突出 [17]
科学家发现:去掉推荐算法,社会极化反而更严重?
36氪·2025-11-06 07:50