人工智能发展历史 - 学界对AI存在两种理解范式:逻辑型(符号规则表达操作实现推理)与神经网络型(智能基础在于学习神经网络中的链接)[5] - 1985年开发的小语言模型通过分析词汇特征关联预测下一个词 未存储任何句子[7][8] - 技术发展脉络:Yoshua Bengio扩大模型规模→计算语言学家接受特征向量嵌入→谷歌开发Transformer→OpenAI推出ChatGPT[9] 大语言模型原理 - 当前LLM被视为1985年小语言模型的技术延续 使用更复杂神经元结构与多词输入建立特征交互[12] - LLM理解语言方式与人类相同:将语言转化为特征并以完美方式整合[13][14] - 词汇可类比为多维乐高积木 通过组合表达复杂含义 语言成为建模工具[16][17] - 词汇具有动态语义特征 根据上下文调整连接方式 类似蛋白质结合机制[19][20][22] 数字智能优势 - 数字智能可实现软件与硬件分离 软件具有永恒性[29] - 数字智能间知识传递效率远超人类 每秒可共享上万亿比特信息[37][40][41] - 模型权重复制与参数平均化技术实现跨硬件知识协同 如GPT-4并行运行[39][43] - 数字智能能耗虽高但具备可复制性 生物智能能耗低但知识迁移效率低下[45] AI未来发展挑战 - 高智能AI可能自主产生生存与控制动机 超越人类操控能力[47][48][49] - AI具备不可替代的行业价值 医疗教育等领域应用使全球无法彻底消除[54] - 需建立国际AI安全合作机制 类似冷战时期核管控模式[58][59][62] - 训练AI向善的技术需独立研发 各国可基于数据主权贡献解决方案[61] 技术应用案例 - DeepSeek采用知识蒸馏技术 将大网络知识迁移至小网络[33] - 神经网络教学模仿师生关系 教师优化连接方式 学生简化网络结构[34] - AlexNet在2012年ImageNet挑战赛突破图像识别 成为计算机视觉里程碑[66]
图灵奖得主Hinton国内首次现身演讲:AI超越人类后,我们该怎么做
机器之心·2025-07-26 08:19