AI技术的发展历程与突破 - 大语言模型技术经历了三代人60年的研究积累,其近期突飞猛进的根本转变源于神经网络和机器学习领域的革命[4][5] - 技术突破的关键转折点出现在约10年前,通过解决复杂的视觉图像识别问题,证明了神经网络惊人的扩展性[10] - 当前AI革命的基础是40年的研究,例如ChatGPT的成功看似一夜成名,实则背后是长期积累的结果[10] 大语言模型的技术本质与局限 - 大语言模型受人类大脑皮层启发,但仅模拟了编码功能的一小部分,其本质是“云端的大脑”,缺乏身体、感官和长期记忆[10][11][14] - 模型在整合知识的广度上已远超人类专家,但其能力仅限于文本训练,目前正扩展至图像和视频[10][11] - 模型缺乏人类的关键能力,包括情绪体验、终身学习以及现实世界中的自主性[14][15] 对AI潜在风险的看法与类比 - AI技术本身是工具,其风险在于使用方式,与核能、生物技术等所有新技术一样,既可用于造福人类,也可能被滥用[16] - 监管是必要的,但关键在于防止技术被坏人利用,历史上人类已成功管理了核能与生物技术的双重用途[16] - 目前处于AI技术的开端,如同早期会爆炸的蒸汽机,需要通过大规模使用和试错来发现问题并完善解决方案[17][18] AI对就业的影响与技能变革 - AI不会直接导致大规模失业,但会改变工作性质,要求人们学习新技能以利用工具提升生产力[31][32] - 历史表明技术革命会创造新岗位,例如工业革命后农业人口从99%降至2%,互联网催生了网页设计师、内容创作者等新职业[18][32][33] - 未来最重要的技能是学会有效使用AI工具,将人类从重复性工作中解放,从事更具创造性的活动[11][32] AI的“幻觉”与偏见问题 - AI“编造事实”的现象被称为“幻觉”或“虚构”,这反映了人类自身的认知缺陷,该特性在需要创造性的场景下可能有益[21][22] - 模型中的偏见源于其训练数据——人类文本本身带有偏见,纠正AI的偏见比改变人类的偏见更容易[34] - 解决偏见是当前研发重点,未来模型将通过类似人类“强化学习”的持续反馈机制来学习是非判断[22][25] 依赖AI与人类认知能力的关系 - 依赖AI工具不会必然削弱人类基础认知能力,正如计算器普及后,学生仍需学习算术以建立对数字的根本理解[26][29] - 掌握任何技能都需要在现实世界中持续练习,使用AI(如改进语法)可以成为提升自身技能水平的有效工具[29][30] - 关键在于主动使用而非被动依赖,通过实践保持并提升核心能力[29] AI的理解能力与语言科学前沿 - 关于AI是否真正“理解”语言存在学术争论,这反过来促使人类需要发展更精确的语言科学理论[38][39] - 大语言模型运作于数十亿甚至数万亿维的高维空间,这正在催生新的数学理论和理解方式[41][42] - 研究表明,语言的关键在于“语义”而非“句法”,大语言模型擅长通过上下文理解词义,这种能力使其能够回答新问题[44][45] 对年轻一代与科学探索的建议 - 科学进步常由年轻一代推动,当专家断言某事不可能时,不应盲从,历史上有许多突破因此实现[46][47] - 技术进步伴随着世代更迭,固步自封会阻碍发展,开放探索的环境至关重要[47][49] - 鼓励年轻人勇于挑战权威,创造未来[46][49] 对AI监管的看法 - 当前AI大语言模型技术仍处初级阶段,过早、过细的政府监管会限制探索和试错,不利于解决技术本身存在的问题[2][50][51] - 倡导基于行业的自我监管,认为科学家社群有能力在探索中识别并防止技术滥用[50][51] - 以欧盟长达100页的《人工智能法案》为例,认为其中对具体应用场景的微观管理方式“荒谬”且难以执行[51] - 不同国家监管方式各异,中国出台的规则被认为比欧盟的提案更为合理[52]
AI不是随机鹦鹉,如何应对“有主见”的AI?
观察者网·2025-12-05 02:12