GLM 4.6
搜索文档
遥遥无期的AGI是画大饼吗?两位教授「吵起来了」
36氪· 2025-12-22 02:08
大模型的通用性和泛化性越来越强大了。 虽说一些新模型,比如说「差评如潮」的 GPT-5.2,在专业任务和智能水平已经达到了非常出色的水平,但离我们所认知的 AGI 依旧十分遥远。 不过,这也说明了大家对 AGI 仍然充满热情和信心,说不定下一款重磅的大模型就能够初步实现 AGI 的构想呢? 但是,近期卡耐基梅隆大学教授,AI2 研究科学家 Tim Dettmers发布了一篇长文博客,标题为《Why AGI Will Not Happen》,认为由于物理原因,我们 无法实现 AGI,也无法实现任何有意义的超级智能。 这篇文章着实给大家对 AGI 的热情泼上了一盆冰水,引发了广泛哗然。 为什么 AGI 不会发生 这篇文章涉及到了硬件改进、通用人工智能(AGI)、超级智能、规模法则、人工智能泡沫以及相关话题。 博客链接:https://timdettmers.com/2025/12/10/why-agi-will-not-happen/ 计算是物理的 许多思考 AGI、超级智能、缩放定律以及硬件进步的人,往往把这些概念当作抽象理念来看待,像哲学思想实验一样加以讨论。这一切都建立在对 AI 与 规模化的一个根本性误解 ...
遥遥无期的AGI是画大饼吗?两位教授「吵起来了」
机器之心· 2025-12-21 04:21
文章核心观点 - 文章围绕“AGI能否实现”这一核心议题,呈现了两种对立的观点:一种基于物理和成本限制认为AGI和超级智能无法实现[3][7][28],另一种则认为当前AI系统在软硬件效率上仍有巨大提升空间,通往更强AI的道路多样,实用化的“类AGI”能力可能并不遥远[33][36][66] 对AGI的悲观论据(物理与成本限制) - **计算受物理规律制约**:计算是物理过程,需要在局部计算与全局信息移动间取得平衡,随着晶体管缩小,计算变便宜但内存相对变贵,芯片面积主要被内存占据,导致算力可能因内存服务不足而成为“无效算力”[8][10][11] - **Transformer架构已接近物理最优**:该架构以最简单方式结合了局部计算与全局信息汇聚,是对信息处理单元的物理层面优化[11][12] - **线性进步需要指数级资源**:在物理现实和观念空间中,要获得线性改进,所需投入的资源呈指数级增长,观念创新因领域庞大而边际收益递减[13][15] - **GPU进步已停滞**:GPU在“性能/成本”指标上于2018年左右达峰,后续改进多为一次性特性(如16位精度、Tensor Core、HBM等),现已走到尽头,任何进一步改进都将是权衡而非纯收益[16][17] - **规模化收益面临极限**:过去GPU的指数级增长对冲了规模化所需的指数级成本,但现在规模化已变成指数级成本,物理极限可能在一到两年内逼近,规模化收益不再显著[20] - **基础设施优势可能迅速蒸发**:若研究/软件创新、强大的开源推理栈或向其他硬件平台迁移取得突破,前沿实验室的大规模基础设施优势可能一夜消失[21][22][26] - **超级智能是幻想**:超级智能自我改进引发爆炸增长的前提错误,智能改进受物理现实和缩放规律制约,线性改进需指数级资源,其发展更可能是填补能力空白而非推动边界外扩[28][29] - **AGI需具备物理执行能力**:真正的AGI需包含能在现实世界完成经济意义工作的实体机器人,但机器人领域数据收集成本高昂,现实细节复杂,许多问题经济上并不划算[25][27] 对AGI的乐观论据(效率与创新空间) - **当前AI系统被严重低估,效率远未达上限**:训练效率比几年前更低,例如DeepSeek-V3和Llama-4训练的MFU仅约20%,而2022年的BLOOM项目已达50%,当前模型设计并非为最高硬件利用率[39][41] - **推理效率存在更大提升空间**:最优化推理实现关注带宽利用率(MBU),FLOP利用率(MFU)常为个位数(<5%),这并非物理根本极限,而是当前自回归架构规模化带来的限制[43][44] - **新一代硬件提供显著算力提升**:Blackwell架构芯片的FP8吞吐量是Hopper的2.2倍,并支持原生FP4 Tensor Core,GB200等机架级方案可缓解通信瓶颈,高效FP4训练理论上可将可用FLOPs提升最多9倍[42][50] - **模型是硬件的滞后指标**:当前模型反映的是上一代硬件能力,而新一代超大规模集群(如10万卡以上)正在建设,意味着高达50倍的算力建设正在发生[47][48] - **明确的效率提升路径**:通过训练高效的架构协同设计、高质量高效率的FP4训练、推理高效的模型设计(如扩散式语言模型)等方式,可大幅提升硬件利用率[45][46][52] - **已有AI工具产生巨大经济影响**:以更务实的定义,一套在某些任务上比大多数人做得更好并能产生巨大经济影响的通用工具体系,可能并不遥远,例如当前模型已在编程等领域越过关键阈值[60][61] - **即便能力不提升,应用场景仍广阔**:假设模型能力冻结,系统层面的效率改进也足以让许多高影响力应用落地,且通过新的后训练范式、更好的样本效率等方法,可继续推进“有用AI工具”[62][63][65] 行业路径与理念差异 - **中美AI发展路径不同**:美国遵循“赢家通吃”思路,追求构建最大最强的超级智能模型;中国理念更侧重应用,认为模型能力本身没有应用重要,关键是实用性和以合理成本提升生产力[23][24] - **不同理念的可持续性**:在模型能力增速放缓的背景下,追求超级智能的目标可能遭遇困难,而推动AI经济扩散的务实思路可能更具长期优势[24][30]
AGI为什么不会到来?这位研究员把AI的“物理极限”讲透了
36氪· 2025-12-17 11:43
这意味着,智能的提升并不是"想象空间"问题,而是绕不开能量、带宽、存储、制造和成本的物理限 制。 AGI 会不会到来? 这是AI 行业里反复被讨论、却一直始终缺乏清晰论证的问题。 最近,西雅图艾伦人工智能研究所(AI2)的研究员蒂姆·德特默斯(Tim Dettmers)在一篇文章,题目很 直接——《为什么 AGI 不会实现?》。 蒂姆·德特默斯 在这篇文章中,他提出了一个被长期忽视、却至关重要的前提: 计算并不是抽象概念,而是一件彻底受物理规律约束的事情。 德特默斯认为,当下市场对AGI 的判断普遍偏乐观,一个关键原因在于: 很多讨论只停留在模型、参数和算法层面,却忽视了支撑这些能力的物理基础正在逼近极限。 在文章中,德特默斯第一次从物理约束的角度,系统性地解释了为什么AGI 面临一系列难以回避的现 实。这些判断,也有助于我们更好地理解当前的AI行业。 他在文章中总结了几条关键判断: 1)Transformer 的成功并非偶然,而是在当前物理约束下接近最优的工程选择,继续通过架构改进获得 的边际收益正在快速下降。 2)当下大量所谓"创新",本质仍是既有框架上的渐进改进,很难带来结构性跃迁。 3)AI 过去的 ...
计算机周报20251116:叙事的逆转:中美大模型差距是否在拉大?-20251116
民生证券· 2025-11-16 14:02
报告行业投资评级 - 行业投资评级为“推荐” [5] 报告核心观点 - 核心观点认为国产大模型与海外大模型差距加速缩小,以腾讯、阿里为代表的国内AI生态快速发展,国产AI有望迎来加速发展的拐点 [3][22] 市场回顾 - 本周(11月10日至11月14日)沪深300指数下跌1.08%,中小板指数下跌1.71%,创业板指数下跌3.01%,计算机(中信)板块下跌3.72% [1][30] - 计算机板块个股周涨幅前五名分别为:海峡创新(33.10%)、恒银科技(17.94%)、安博通(15.29%)、中安科(12.50%)、鸿泉技术(10.37%) [35] - 计算机板块个股周跌幅前五名分别为:淳中科技(-17.43%)、鼎捷数智(-16.04%)、格尔软件(-13.00%)、凌志软件(-12.77%)、金溢科技(-10.93%) [35] 中国大模型性能与性价比 - 以MiniMax、DeepSeek、智谱为代表的大模型厂商已稳居全球大模型第一梯队,其模型日均tokens用量稳定在全球第一大梯队,超过GPT5的70B水平 [9] - MiniMax M2是OpenRouter上第一个日token消耗量超过50B(五百亿)的中国模型,发布几天内已跃升为OpenRouter全球调用量前三、HuggingFace Trending全球第一的模型 [9] - 国产大模型具备高性能与高性价比优势,例如智谱GLM 4.6在AI编程能力排名中得分为1373,与顶尖模型如Claude Sonnet 4.5(1387分)差距不大,但其输入/输出单价最低仅为2元/8元每百万tokens,而性能接近的Claude Sonnet 4.5输入/输出单价为3/15美元每百万tokens [13][14][15][16] 国内AI生态发展 - 腾讯公司总裁刘炽平在2025年第三季度财报电话会中指出,AI在该季度对腾讯的营收和毛利做出了不小贡献,广告收入增长中约有一半来自于AI驱动的广告技术带来的ECPM提升 [18] - 腾讯元宝已打通微信、QQ、腾讯会议等数十款内部产品,覆盖社交、办公与消费等场景,腾讯AI工作台ima在9月的月活跃用户数较1月增长超80倍,QQ浏览器AI功能9月月活跃用户数较4月增长约18倍 [20] - 阿里巴巴已秘密启动“千问”项目,对其主要移动端AI应用“通义千问”进行重大改版以全面对标ChatGPT,未来几个月内将逐步引入AI Agent功能并融入淘宝购物等更多场景 [20] 行业重要动态 - AMD CEO苏姿丰预计,到2030年全球AI数据中心总可寻址市场(TAM)将从当前约2000亿美元增长至逾1万亿美元,年复合增速超过40% [23] - 工信部办公厅印发《关于进一步加快制造业中试平台体系化布局和高水平建设的通知》,从原材料、装备制造等6大领域、37个方向布局一批急需的中试平台 [24] - 我国首台具备“量子计算优越性”的超导量子计算机“天衍-287”搭建完成,该系统拥有105个数据比特和182个耦合比特,在特定任务上的处理速度比目前最快超级计算机快约4.5亿倍 [26] 公司动态 - 凌志软件拟通过发行股份及支付现金方式购买凯美瑞德(苏州)信息科技股份有限公司100%股权,发行价为15.31元/股 [2][27] - 正元智慧董事会通过回购股份集中竞价减持计划,拟减持不超过2,842,000股(不超过总股本的2%) [2][29] - 新晨科技获得发明专利“一种实现区块链上高频隐私查询的方法、装置及存储介质” [28]
最新外国「自研」大模型,都是套壳国产?
36氪· 2025-11-01 05:02
Cursor公司Composer模型发布 - Cursor发布2.0版重大更新,推出首个自家代码模型Composer以及用于并行协作多个智能体的新界面[4] - Composer是使用强化学习训练的大型MoE模型,能够出色处理实际代码且速度非常快[4] - 在内部基准测试中,该模型在编码任务上达到行业前沿水准,生成速度比同类模型快四倍[7] 模型技术来源推测 - 新模型Composer在思考时大量输出中文,行为与国产模型极其相似,引发对其基于中国AI模型开发的猜测[4][9] - 有分析认为Cognition的SWE 1.5模型是基于智谱AI的GLM大模型进行开发和改进的[11] - 网友对SWE 1.5进行“越狱”后,模型直接回答自己是智谱AI开发的GLM大模型[11] - 业界观点认为Cursor的Composer模型和Cognition的SWE-1.5都是基于中国公司智谱的GLM 4.6模型进行定制精调[16] 模型开发策略分析 - 分析指出WindSurf和Cursor的新模型都是经过微调而非从零训练,这对于开源社区是胜利[17] - 从头训练基础模型成本极其高昂,许多资源更雄厚的公司都未能成功,因此后期投资强化学习是合逻辑的选择[17] - Cursor和WindSurf团队被认为没有足够资金建设庞大训练集群,也没有足够数据和团队支持从零建立大模型[18] 中国开源模型市场地位 - 英伟达CEO黄仁勋指出开源模型已变得非常强大,大大加速AI应用进程[21] - 2025年以来,阿里的通义千问模型已占据开源模型大部分市场份额,领先优势持续扩大,衍生模型数量全球第一[21] - 在AI社区HuggingFace趋势榜上,排行前列的模型都出自中国公司,包括MiniMax、DeepSeek、Kimi、百度等[23] - 在第三方基准平台ArtificialAnalysis上,排行前列的也大多数是国产模型[24] 行业格局影响 - 中国开源基础模型已具备足够能力支持西方产品开发,全球AI正进入多极化竞争新格局[20] - 不论在模型技术水平还是全球开发者接受度上,国内开源大模型都已确立领先地位,正在改变全球AI竞争格局[26] - 开源模型推理能力、多模态能力、专业领域能力的提升,使其不仅帮助开发者,甚至已成为初创公司的命脉[23]
最新外国「自研」大模型,都是套壳国产?
机器之心· 2025-11-01 04:22
Cursor和Cognition新模型发布及性能表现 - Cursor发布2.0版重大更新,推出自家代码模型Composer及用于并行协作多个智能体的新界面[5] - Composer是使用强化学习训练的大型MoE模型,在内部基准测试中编码任务达行业前沿水准,生成速度比同类模型快四倍[6][8] - Cognition推出快速智能体模型SWE-1.5,参数量达数千亿,编码性能接近SOTA,比Haiku 4.5快6倍,比Sonnet 4.5快13倍[9][11] 新模型与中国AI模型的关联证据 - 分析发现Cursor的Composer模型思考时讲中文,行为与国产模型极其相似[6] - 对Cognition的SWE-1.5进行"越狱"后,模型直接回答自己是智谱AI开发的GLM大模型[14][15] - 业界分析认为SWE-1.5基于智谱GLM 4.6模型定制,Cursor的Composer也带有中国式推理痕迹[20][21] - Cerebras官宣推出zai-glm-4.6作为新编码模型,进一步证实与中国模型的关联[24] 开源策略与行业影响分析 - 系统架构师指出从头训练基础模型成本极高,Cursor和Windsurf团队选择在后期训练阶段投资强化学习是合理逻辑[24][25] - 许多大型实验室已建立强大规模,独立开发难以成功,基于开源模型微调成为可行路径[25] - 呼吁美国公司回归开源理念,而非发布功能受限的专有模型[27] - 中国开源基础模型已具备支持西方产品开发的能力,全球AI进入多极化竞争新格局[28][29] 中国开源模型的行业地位 - 英伟达CEO黄仁勋表示开源模型已变得非常强大,加速了AI应用进程[30] - 2025年以来阿里通义千问模型占据开源模型大部分市场份额,衍生模型数量全球第一[30] - 在HuggingFace趋势榜上,排行前列的模型都出自国内公司,包括MiniMax、DeepSeek、Kimi、百度等[32] - 在第三方基准平台ArtificialAnalysis上,排行前列的也大多数是国产模型[33] - 国内开源大模型在技术水平和全球接受度上确立领先地位,改变全球AI竞争格局[35][36]