AI规模扩展
搜索文档
AI周报 | DeepSeek开源奥数金牌水平模型;前OpenAI 联创称规模扩展时代已终结
第一财经· 2025-11-30 00:48
DeepSeek模型进展 - 开源首个达到国际奥林匹克数学竞赛金牌水平的数学模型DeepSeek-Math-V2 [1] - 模型部分性能优于谷歌旗下的Gemini DeepThink [1] - 行业头部厂商近期密集迭代模型,包括OpenAI发布GPT-5.1、xAI发布Grok 4.1、谷歌发布Gemini 3系列 [1] AI技术路线与行业观点 - 前OpenAI联合创始人伊利亚·苏茨克维认为AI规模扩展时代已终结,主流路线遇到瓶颈 [2] - 其观点指出算力规模已很大却不能持续带来更好的扩展,扩展与浪费算力界限模糊 [2] - 未来需要解决大模型泛化能力比人类差的问题,AI可能缺少人类情绪这种价值函数 [2] 百度组织架构调整 - 百度新设立基础模型研发部与应用模型研发部两大部门 [3] - 基础模型研发部由吴甜牵头专注通用人工智能大模型研发,应用模型研发部由贾磊负责聚焦业务场景专精模型调优 [3] - 新设部门均直接向百度CEO李彦宏汇报,体现推进干部年轻化决心 [3] 英伟达市场动态与回应 - 英伟达股价一度重挫逾7%,市值瞬间蒸发近3500亿美元,最终收跌2.59% [4] - 公司回应大空头迈克尔·伯里言论,称战略投资在营收中比例较小,投资组合公司主要从第三方客户获取收入 [4] - 投资者对AI算力真实需求和投入能否转化为足够收益产生怀疑 [4] 谷歌硬件与芯片动态 - 谷歌重启AI眼镜项目,硬件代工由富士康负责,参考设计由三星提供,芯片由高通提供 [5][6] - 项目已进入小批量试产阶段,预计最早2026年第四季度发布 [6] - 谷歌自研第七代TPU单芯片峰值算力可达4614TFLOPs,是目前性能最强大、能效最高的自研芯片 [10] AI产业链公司动态 - 工业富联澄清第四季度业绩目标下调传闻,称英伟达GB200、GB300等相关产品出货均按计划推进 [8] - 公司股价从10月30日到11月24日累计下跌30.77%,但11月25日至28日累计上涨8.54% [8] - 天孚通信辟谣获谷歌30亿美元订单,称信息不实 [9] AI行业资源消耗与挑战 - 汇丰银行分析指出OpenAI至2030年仍难盈利,即便用户规模覆盖全球成年人44%且营收可能突破2130亿美元 [7] - OpenAI目标在本年代末达到36GW算力,接近美国中型州用电量,预计自由现金流仍为负,整体缺口达2070亿美元 [7] - 摩根士丹利报告指出AI不仅是主要电力消费者,也是吃水大户,数据中心严重依赖水资源 [11][12]
DeepSeek-R1与Grok-3:AI规模扩展的两条技术路线启示
Counterpoint Research· 2025-04-09 13:01
核心观点 - DeepSeek-R1 和 Grok-3 代表了AI发展的两种不同路径:前者通过算法创新和高效资源利用实现高性能,后者依赖大规模计算资源投入 [2][8] - 行业趋势正从“原始规模主导”转向“战略效率优先”,算法设计、混合专家模型(MoE)和强化学习成为关键杠杆 [8][10] - 未来AI发展将更注重投资回报率(ROI),平衡规模扩展与算法优化 [8][10] 模型性能与资源对比 - DeepSeek-R1 仅使用约2000块NVIDIA H800 GPU即达到全球前沿推理模型性能,展现高效训练能力 [2] - Grok-3 动用约20万块NVIDIA H100 GPU,性能略优于DeepSeek-R1、GPT-o1和Gemini 2,但资源消耗相差百倍 [2][8] - 两者性能相近,但资源投入差异显著,凸显算法创新可抗衡纯计算规模 [8] 发展路径差异 - Grok-3 采用“蛮力策略”,依赖数十亿美元GPU计算规模,边际性能提升显著但ROI递减 [8] - DeepSeek-R1 通过混合专家模型(MoE)、推理强化学习和高质量数据,以最小硬件代价实现顶尖性能 [8] - 行业可能从“规模法则”转向“算法突破+工程实用主义”的全局发展观 [10] 未来AI趋势 - 集中式训练项目(如Grok-3)成本过高,仅限少数巨头参与,中小机构需转向效率优化策略 [10] - 混合专家模型(MoE)、稀疏化、改进微调和强化学习将成为核心,降低资源消耗 [10] - 新数据训练与强基础模型结合(如RAG或定期微调),可避免持续大规模计算负担 [10]