Workflow
认知卸载
icon
搜索文档
“认知卸载”,人类大脑会陷入舒适区吗
科技日报· 2025-12-10 01:01
文章核心观点 - 生成式人工智能的深度融入可能导致人类过度依赖技术,引发“认知卸载”,从而削弱独立思考、批判性思维和深度学习能力,形成恶性循环 [1][2] - 当前生成式人工智能(如大型语言模型)的本质局限在于其仅能处理语言形式,缺乏真正的思维、认知和基于真实经验的理解能力 [3][4] - 为避免认知能力被削弱,人类需重塑与生成式AI的关系,坚持“先思考后AI”的原则,将其用作增强而非取代思考的工具,并警惕其回答带来的“锚定效应” [6][7] 生成式AI对人类认知的潜在负面影响 - 生成式AI让人延续“认知卸载”传统,即利用工具减轻思维负担,但过度依赖会对认知造成负面影响,使学习过程被动和肤浅,并导致独立思考能力越弱、工具依赖越强的恶性循环 [1] - 与使用搜索引擎相比,使用ChatGPT辅助的志愿者写出的文章篇幅更短、事实引用更少,因为AI直接完成了关键的“信息综合”步骤,剥夺了人类探索与发现的机会,导致对知识的理解流于肤浅 [2] - 一项涵盖600多人的调查研究发现,17-25岁的年轻人比年长者更依赖AI,而他们的批判性思维得分相应低了约45%,这种现象被称为“认知懒惰” [2] - 人类将心智深度延伸至生成式AI与网络空间,这种依赖性正让人变得前所未有的脆弱,一旦断电或没网,人类的认知能力可能随之“瘫痪” [2] 生成式AI的技术本质与局限 - 科学界认为AI看似聪明的回答掩盖了其本质局限,流畅的语言并不代表有思维 [3] - 脑成像显示大脑处理语言和推理的区域是分开的,且失语症患者虽失去语言能力却依然能解复杂数学题,证明语言能力不等同于思考能力 [4] - 依靠概率预测下一个词的大型语言模型难以被视为“会思考的存在”,它们只是在语言形式上高度拟人化,并不具备驱动语言背后的认知引擎 [4] - 生成式AI从被大量重复的人类语言中学习,掌握的是语言的“壳”,却未参与让语言诞生的真实经验世界,因此往往只是反刍已有的词句,被困在人类数据的牢笼里 [4] 正确使用生成式AI的建议与策略 - 关键原则是永远做那个先思考的人,越多独立思考,越能提升所谓“混合认知” [6] - 美国麻省理工学院团队发现,那些先独立写过一次作文的志愿者,再用ChatGPT写第二版时,即便用了AI,大脑仍保持高水平连接度,思维参与度并未下降 [6] - 使用AI的正确方式是把它当作强化既有理解的工具,而不是取代思考的捷径 [6] - 需警惕“锚定效应”,即AI生成的第一个答案可能潜移默化地带偏后续判断,可采用反向操作策略,例如先让AI列举事实,再由自己归纳,最后请AI找漏洞或给出相反论证 [6] 人类与AI的共生关系及未来展望 - 若人们依赖AI提供所有答案,人类原创内容会减少,AI训练所需的新鲜数据也会枯竭,最终陷入“模型崩塌”,只能重复自己的内容,导致智力和创造力逐渐下降 [7] - 如果使用得当,不只是人类会变得更聪明,AI也会随之进化 [7] - 唯有人类继续坚持创造和思考,AI才能真正成为认知的助力,而不是取代思维的幻象 [7]
胡泳:为什么使用AI的你,变得越来越笨?
36氪· 2025-11-06 11:15
文章核心观点 - 人工智能特别是生成式AI的普及引发了对其过度依赖和认知卸载的担忧 可能导致人类批判性思维和独立解决问题能力的退化 而非简单地解放脑力 [1][2][3][5][6][11][18] 过度依赖与认知卸载 - ChatGPT周活跃用户数破8亿 AI已从新奇玩具转变为日常必备的生产力工具 [1] - 过度依赖指用户对AI输出过分信任或盲目采纳 即使结果是错误的也会照单全收 导致执行性错误 [1] - 认知卸载是将认知负担转移给AI的策略 形式从简单记笔记到复杂依赖GPS导航 如今已成为第二天性 [2] - 医疗影像诊断中 若医生仅依据AI标注的"疑似肺癌"结论下诊断 而未结合患者病史复核 即为过度依赖的典型案例 [2] - 企业HR用AI筛选应聘者 学生用AI生成未加审查的论文 客服机械采纳AI推荐答案 均是过度依赖的体现 [3] 批判性思维面临的风险 - 瑞士SBS商学院对666位英国人的测试显示 频繁使用AI与较低的批判性思维能力存在显著相关性 年轻参与者依赖性高且得分明显低于年长者 [6] - 微软和卡内基梅隆大学对319名每周使用GenAI的专业人士调查发现 AI提高效率的同时侵蚀了批判性判断所需的认知肌肉 可能导致无AI支持时解决问题能力下降 [6] - 2024年TollBit报告指出 当AI被用来搜寻答案 95%的用户会放弃进一步点击来源网站 相较于传统搜索引擎流量减少95% [7] - AI语言模型生成语法流畅、逻辑连贯的文本 其形式上的可信度往往掩盖事实上的不可靠性 用户的自动信任使得虚假信息传播更隐蔽高效 [10] AI对创造力和智商的影响 - AI能帮助个人产生更多创意 但在群体层面上 AI生成的创意较为单一 真正的颠覆性创新时刻可能减少 [4] - 心理学家罗伯特·斯特恩伯格指出 生成式AI具有复制性 可重组已有想法 但尚不清楚是否能产生解决全球性问题所需的范式创新想法 [5] - 自1930年代以来全球多国平均智商持续提升的弗林效应 在发达国家自1990年代出现轻微逆转 如英国14岁青少年平均智商在1980至2008年间下降超过两分 [14][15] - 维也纳大学2024年研究显示 虽然某些情况下智商仍上升 但不同认知能力之间的整体一致性在减弱 人口可能正变得更加认知分化或专业化 [16] 行业案例与市场反应 - 健康信息平台WebMD 知识问答平台Quora等因AI答案直接呈现导致流量下降 被迫调整策略 如WebMD转型为服务精准客户的健康教育平台 [8] - 个人电子报平台Substack在AI生成免费内容泛滥的背景下 2025年2月流量达到创立以来新高 显示市场对高品质 深度分析内容的需求 [8][9] - Substack拥有超过25万付费用户 其前10名创作者年收入合计高达700万美元 证明个人观点与深度分析是AI难以取代的价值 [8][9] AI技术的根本性差异 - 与以往扩展人类能力的技术不同 AI是认知功能的直接替代 正在执行传统上属于人类思考 判断 创造的核心认知功能 这是质的飞跃 [11] - AI技术的规模与普及速度前所未有 应用渗透快且覆盖面广 使得依赖性风险比以往任何技术都更大 [12] - AI智能模拟的真实性与迷惑性很致命 其语义连贯 逻辑严谨的表象可能降低人类对信息的质疑和批判意识 带来新的认知风险 [12]
别再执着于AGI,是时候考虑MCI了
36氪· 2025-10-23 23:12
核心观点 - 在追逐通用人工智能(AGI)的过程中,人类可能正在丧失更重要的东西——人类自身的思考能力,即跨越了“最低认知完整性”(MCI)的边界 [4] - 更紧迫的问题并非机器何时跨越AGI门槛,而是人类是否早已越过了自己的认知边界,导致思维过程被悄然外包 [4] - 若AGI是机器的终点线,MCI或许就是人类认知的概念性生存线,竞相打造更智能的机器可能正在掏空人类进行原创性自主思考的能力 [7] 认知外包的影响 - 思想外包会侵蚀好奇心,使思考变得被动,这种现象被称为“元认知惰性” [5][6] - 跌破MCI阈值并非突发事件,而更像肌肉萎缩,力量缓慢流失,导致思维逐渐沦为被动接受者 [6] - 人类智力生活在技术与“科技巨头”铺设的轨道上运行,停留轨道越久,重返独立思考之路就越艰难,认知之旅成为他人或他物的旅程 [6] 解决方案与应对 - 解决方案在于主动制造摩擦、提出更优质的问题,并适时暂停以重获思维主导权 [5] - 主动制造摩擦,例如在查询前先暂停片刻,自己动手解决问题,以增强解决问题的能力 [8] - 将人工智能视为训练伙伴,在接受其输出结果前先对其提出质疑,让它协作而非仅仅服务 [8] - 定期进行认知休整,每周至少一次彻底断开与算法的连接,通过阅读实体书、书写或交谈来守护人类认知 [8]
北京大学教授胡泳:AI时代,“文科有用”
混沌学园· 2025-09-15 11:58
人工智能对人类认知能力的影响 - AI导致认知卸载 使人类特定认知技能下降 如个体记忆能力减退[7][8] - 过度依赖AI与较低批判性思维能力存在显著关联 年长者因AI依赖度低而批判性得分高于年轻人[8] - AI渗透速度快且覆盖广 对工作生活及心理产生技术性依赖风险 适应性下降问题显著[9][12] 人工智能与人类智能的本质差异 - 大模型智能仅集中在语言智能和部分逻辑推理智能 缺乏视觉空间智能 具身智能和情感理解能力[7][16][17] - AI本质是概率问题而非真正理解推理 缺乏临床直觉和具身认知能力 无原生学习过程[15] - 人类智能包含八种类型 AI仅在语言和逻辑推理表现优秀 其他类型智能进展有限[16][17] 人工智能在教育领域的挑战与变革 - AI挑战传统教育体系 需构建无分数学习概念 将评分体系置换到更具挑战性学习任务[7][20] - 教育应培养使用AI工具生产内容的能力 强调沟通协作 批判性思维 创造力和自信心等关键技能[7][21][22] - 通识教育变得前所未有的重要 人文社科帮助人类发现自我并与AI相处 弥补AI缺乏的真实体验和激情[23][24][27] 人工智能的局限性与发展障碍 - 生成式AI面临幻觉问题 内生于大模型 不能完全作为知识停止点系统[18] - 当前AI无法产生行星层级的颠覆性范式创新想法 如全球气候变化和经济不平等问题[26] - AI技术具有前所未有的独特性 需严肃全面审视和管理 避免混淆人机边界[12][25] 人机协作的风险与应对策略 - 人机协作存在丧失人类思想主体性的风险 如骆驼挤进帐篷的寓言所示[6][13] - 使用AI需具备超高信息素养 养成人在回路中的使用习惯 识别幻觉根本性[18] - 应关注AI对人类的影响 而不仅是AI能为人类做什么 发挥机器无法实现的创造力 批判性思维和直觉[25]
AI是通向“超人”的阶梯,还是退回“猿猴”的陷阱?
腾讯研究院· 2025-08-28 10:38
AI对人类智力的影响 - AI可能使人类思维同质化 缺乏新意和批判性思考[2] - 麻省理工学院实验显示使用ChatGPT组记忆正确率仅11.1% 远低于未使用组的88.9%[4] - 脑电波数据显示AI使用组神经连接强度(dDTF=0.009)显著低于未使用组(dDTF=0.053)[4][5] 认知能力变化机制 - 认知负荷转移导致大脑处理能力退化 类似过度依赖导航系统[5] - 认知卸载效应使大脑为节省能量将任务外包给AI工具[5] - 知识平庸化趋势使AI输出内容缺乏思想灵魂 呈现平铺直叙特征[6] 智力维度重构 - 智力应视为多维光谱而非单一分数 包含批判思维/记忆力/逻辑推理等多要素[10] - AI主要替代计算和记忆能力 但创造力/情感理解/同理心等软技能仍难以被取代[10] - 认知增强使人类从繁琐记忆中解放 专注于高级认知活动[11][12] 教育体系变革 - 教育需从知识灌输转向培养批判性思维和创造力[17] - 可探索无分数学习模式 将基础知识学习交由AI处理[17] - 认知教育应重点培养语言能力/逻辑能力/自主判断能力等基础认知能力[18] 人机关系重构 - 需重新定义人类价值锚定点 探索深空/深海等新疆域[14] - 未来可能出现人机混合的赛博格新物种 改变人类生产生活方式[15] - 意识问题构成人与机器的本质区别 需警惕AI对人心智的渗透[15] 技术发展辩证观 - AI影响具有动态辩证性 既存在降智风险也具备启智潜力[9] - 技术将淘汰平庸思维 解放敢于提问和善于反思的独特智慧[18] - 国务院要求深入研究AI对人类认知判断的深层次影响机制[2]
令人深思,人工智能工具可能会降低医生的技能,《柳叶刀》最新研究敲响警钟
36氪· 2025-08-21 23:54
研究核心发现 - 人工智能在医疗领域的应用可能导致医生独立诊断技能退化 首次提供临床证据显示医生长期使用AI辅助后 其独立发现癌前病变(腺瘤)的能力显著下降 腺瘤检出率从28.4%降至22.4% 绝对降幅6% 相对降幅达20% [4] - 该现象被归因于"认知卸载"机制 医生在AI持续辅助下会不自觉地降低警惕性和注意力 将部分认知责任外包给机器 [4][6] 研究背景与方法 - 研究发表于《柳叶刀》子刊The Lancet Gastroenterology & Hepatology 在波兰四家内镜中心开展 [1][4] - 研究对象为19名经验丰富的内镜医师 研究周期为三个月基线测试加三个月AI辅助检查 最终再次测试独立诊断能力 [4] - 聚焦结肠镜检查领域 此为筛查和预防结直肠癌的关键手段 [4] 潜在行业影响 - AI系统尚未普及时可能造成医疗水平不均衡 习惯使用AI的医生在未配备该技术的医疗机构工作时可能出现诊疗水平下滑 [5] - 技能退化风险可能不限于单一息肉识别 或蔓延至更广泛的临床诊断领域 [6] 技术积极价值 - AI能显著提升诊疗效率与准确性 在放射学 病理学和皮肤科等领域 图像识别表现已达人类专家平均水平 可帮助发现微小或不典型病灶 [8] - AI可将医生从繁重复事务中解放 如自动完成病历书写 文献检索和数据分析 使医生更专注于患者沟通与人文关怀 [8] - AI可作为强大培训工具 通过模拟海量病例为年轻医生提供安全高效的学习环境 神经外科研究显示AI实时反馈能显著提升学员手术技能和风险控制能力 [8] 行业应对策略 - 需革新医学教育 不仅教授使用AI工具 更要培养批判性思维和元认知能力 使医生能理解算法原理并独立验证AI建议 [9] - 建议设立定期"脱机训练"机制 类似飞行员手动飞行训练 以维持和强化医生核心专业技能 [9] - 应开发人机协同新模式 AI作为交互式副驾驶提供建议和警示 但最终决策权和核心操作仍由医生掌握 [9] 研究意义 - 为全球AI热议话题提供冷静且关键的审视视角 [3] - 警示技术依赖可能带来的"去技能化"风险 强调需在拥抱技术便利的同时守护医学核心价值 [9][10]
用AI读书、学习,大脑会萎缩吗?
虎嗅APP· 2025-06-04 10:35
AI在教育领域的应用现状 - 大模型推动的AI工具已广泛进入学生生活,用ChatGPT生成作文或短论文非常轻松[3] - 到2024年底,约70%美国青少年使用过生成式人工智能工具,超过一半青少年用AI帮助完成家庭作业[7] - 国内学生也普遍使用AI工具,DeepSeek诞生前学生直接使用文心一言、豆包等本土AI工具[7] - 学生用户数量呈现季节性波动,9月份开学后用户数量大幅增长[6] AI对学习效果的负面影响 - 宾夕法尼亚大学实验显示:自由使用AI组在练习阶段表现优秀,但最终考试不准使用AI时,平均分比完全不用AI组低17%[9] - 使用"GPT Tutor"引导式AI的学生练习环节表现高出127%,但最终考试成绩与不用AI组大致相同[9] - 不受限制的AI已成为"拐杖",学生依赖聊天机器人完成繁重工作,没有足够深入学习底层概念[11] - AI在学生做作业时提供支持,产生掌握知识的假象,但考试中暴露出不足[11] AI对认知能力的影响 - 生成式AI工具使用不当会导致本应保留的认知能力下降[14] - 频繁使用AI工具与批判性思维能力存在显著负相关,这种负相关由认知卸载增加所介导[14] - 年轻人对AI工具依赖程度更高,批判性思维得分更低[14] - AI自动摘要、自动写作等功能直接替代了阅读、理解、思考、表达四个重要学习动作[20] "从未学习"现象的风险 - 当技能在未学会之前就被机器接管,可能永远学不会这项技能[24] - 教育属于新手学习场景,如果AI从一开始就执行任务,学生可能永远不会真正掌握这些技能[24] - 学生不仅"忘了怎么做",而是"从未学过怎么做",甚至没意识到AI输出的"幻觉"问题[25] - 如果跳过实际学习编程让AI代写代码,当AI输出错误时可能没有足够知识来调试或改进[25] 教育体系应对措施 - 中国教育部发布《中小学生成式人工智能使用指南》,警惕对AI工具的过分依赖,小学生不得独自使用开放式内容生成功能[27] - 复旦大学禁止AI参与本科毕业论文中六个涉及原创性和创新性的部分,允许用于文献检索等辅助工作[28] - 日本要求"禁止使用AI代为完成作业",警惕对思维的压制[28] - 美国高校开始与OpenAI、Anthropic等科技公司合作,主动引入"教育版AI"[28] - 教育机构采取重新设计作业、面对面答辩、课堂写作、恢复纸笔考试等措施应对[32]