Workflow
Neural Network
icon
搜索文档
Nature重磅发文:深度学习x符号学习,是AGI唯一路径
36氪· 2025-12-17 02:12
忆往昔,符号AI曾以规则逻辑统领江湖;今朝卷土重来,它携手神经网络,直指AGI! 但AI领域的权威们已经开始泼下一盆冷水: 真正的突破,恐怕要靠老牌选手「符号派AI」与神经网络联手登场。 这几年,大模型多次让人惊艳:聊天像真人、写作像专家、画画像大师,仿佛「万能AI」真的要来了。 只靠「神经网络」,远远不够通往人类级智能。 美国人工智能促进协会(AAAI)向会员发出提问: 绝大多数研究者给出的答案是——不行。 符号AI:起死回生 在历史上,符号派AI曾是主角——它相信,世界可以被规则、逻辑和清晰的概念关系穷尽刻画: 像数学那样精确,像流程图那样可追溯,像生物分类法那样层次分明。 后来,神经网络崛起,用「从数据中学习」的范式席卷整个领域。 大模型与ChatGPT成为这个时代的技术图腾,而符号系统被边缘化,几乎只剩下教科书上的一段历史。 然而,自2021年前后开始,「神经–符号融合」急速升温,被视为打破单一神经网络话语权的一次反扑: 未来,计算机能否达到、甚至超越人类智力? 如果可以,单靠当下火爆的神经网络行不行? 它试图把统计学习与显式推理拼接在一起,不仅为了追逐通用智能这一远目标,更为了在军事、医疗等高风险场 ...
神经网络与符号系统大一统!华盛顿大学教授把AI逻辑统一成了张量表示
量子位· 2025-10-16 09:30
文章核心观点 - 华盛顿大学Pedro Domingos教授提出当前AI领域缺乏合适的编程语言,并推出名为Tensor Logic的新统一语言框架[1][2] - Tensor Logic将逻辑推理转化为纯张量代数,消除了离散逻辑与连续梯度之间的界限,实现演绎和神经计算使用同一种语言[4][5] - 该框架被认为可能成为人工智能领域的"母语",作者自信地表示这发现了通往AGI的道路[6][18] 对现有AI编程语言的批判 - Python被批评为"从未为AI设计",尽管PyTorch和TensorFlow库提供自动微分和GPU实现,但对自动化推理和知识获取"毫无帮助"[11][12] - LISP和Prolog等早期AI语言缺乏可扩展性和对学习的支持,图模型和Markov逻辑因推理成本高昂而受限[15] - 神经符号AI被批评为将深度学习和符号AI的糟粕"完美结合"[16] - 结论是AI领域显然还没有找到其合适的语言[17] Tensor Logic的技术原理 - 通过爱因斯坦求和约定实现逻辑规则与张量运算的结构等价性,传统符号逻辑推理可完全转换为张量运算[19][20][21] - 神经网络结构天然适配张量表示,包括多层感知机、RNN、CNN和Transformer等模型都可用张量方程表达[22][23] - 语言中每条语句都是张量等式,通过张量连接、投影和非线性变换完成表达、推理与学习过程[24][25][26] - 支持自动微分,无需区分"程序结构"和"模型结构",通过调节温度参数实现从精确推理到模糊类比的连续过渡[28][31] 具体实现与应用 - 多层感知机使用三维张量W表示连接权重,通过张量乘法和激活函数定义隐藏层映射[34] - 递归神经网络利用时间维度上的状态共享,使用"虚拟索引"实现状态在时间步之间的更新[35] - 卷积神经网络通过索引偏移实现卷积操作,通过索引除法实现池化操作的聚合[36] - Transformer模型用权重矩阵计算query、key、value向量,通过注意力分数加权求和实现多头注意力机制[38][39] - 符号AI、概率、核方法等不同AI范式均可纳入该统一表达体系[40][41]
Google首席科学家万字演讲回顾AI十年:哪些关键技术决定了今天的大模型格局?
机器人圈· 2025-04-30 09:10
AI技术发展趋势 - 机器学习彻底改变对计算机能力的认知和期待,过去12-14年间计算资源、数据量和模型规模的扩大持续带来性能提升[5] - 算法和模型架构改进的影响超过硬件进步,导致计算范式从传统CPU为中心发生转变[5] - 神经网络和反向传播是深度学习革命的核心要素,2012年训练出规模空前的大型神经网络实现70%性能提升[7] - 2013年开发的Word2Vec词嵌入模型展现出语义相近词语向量聚集和向量方向具有语义意义两大特性[8] - 2014年开发的序列到序列学习模型为机器翻译等任务提供端到端解决方案[8] - 2017年提出的Transformer架构相比LSTM仅需1/10到1/100计算量就能取得更优性能[9] - 2018年开始流行利用自监督数据进行大规模语言建模,产生海量训练数据[10] - 2021年开发出将图像处理整合进Transformer框架的方法,统一文本和图像处理[10] - 2017年开发的混合专家模型(MoE)实现显著算法优势,训练计算成本降低8倍或相同成本下准确率提升[10] 硬件与基础设施创新 - 为神经网络推理构建定制化硬件TPU,比同期CPU和GPU快15到30倍,能效提升30到80倍[9] - 最新Ironwood Pod包含9216个芯片,总算力达42.5 TFLOPS,相比2018年首个训练Pod计算能力提升约3600倍[9] - 开发Pathways系统简化大规模计算执行,为开发者提供单一Python进程抽象层[11] - 推测解码技术利用小型"草稿模型"预测多个Token再由大模型验证,提高解码效率[13] - 知识蒸馏技术将大模型知识迁移到小模型,使用3%训练数据即可达到接近全量数据训练的效果[12] 多模态模型发展 - Gemini项目致力于打造全球最强多模态模型,能理解语言、视觉输入、音频并生成内容[16] - Gemini 1.5引入极长上下文长度,可处理百万Token内容如50篇研究论文或很厚的书[16] - 模型在编码能力、数学、多模态等方面表现优异,在LM Arena平台的Elo评分显著提高[16] - 多模态应用包括代码修复、极低资源语言翻译、视频理解与摘要、历史数据数字化等[20][21] - 通过高级自然语言提示生成代码,如使用P5js探索Mandelbrot集的可视化程序[21] 行业影响与未来方向 - 大语言模型正成为强大通用工具,能将专家知识普及给广大民众[23] - AI安全需要技术和政策监管双管齐下,包括检测错误信息和促进建设性讨论[24] - 数据尚未成为瓶颈,仍有海量未利用数据如视频数据,且可通过改进训练方法提升数据利用效率[25] - 下一个重大挑战是模型自主完成复杂任务的能力,如分解50个子步骤调用多种工具完成相当于一个月工作量的目标[26]