规模定律

搜索文档
揭秘小鹏自动驾驶「基座模型」和 「VLA大模型」
自动驾驶之心· 2025-09-17 23:33
小鹏自动驾驶技术方法论 - 提出自动驾驶软件3.0时代概念 即"AI模型即软件" 整个软件栈由端到端AI模型构成 基于以数据为中心的方法迭代[6] - 公司处于将整个自动驾驶软件栈构建为端到端AI模型驾驶汽车的阶段[8] - 基于规模定律(scaling law) 利用每天从数十万辆真实世界车辆收集的大量数据训练大型视觉模型作为"工厂"[8] 基础模型与部署架构 - 通过大数据构建基础模型 无需依赖三维空间先验知识和空间问题 类似世界模型概念[8] - 通过深度裁剪 量化 蒸馏将基础模型压缩为更小版本 部署到车端硬件[8] - 在云端构建VLA(视觉语言动作)基础模型 通过蒸馏剪枝和微调训练部署到车端[32] 内外循环训练机制 - 内循环为每个模型创建训练流 扩展数据后进行再训练和监督微调(SFT) 持续提升模型性能[9] - 外循环通过数十万辆车作为现实世界数据采样器 持续采样数据 根据返回数据持续训练(协同训练)[11] - 重复内外循环过程直至性能达到L4级自动驾驶 公司目标2026年实现L4级智驾车型量产[11][13] VLA模型训练方法 - 采用阿里Qwen作为原始VLM模型 使用公司整理的驾驶数据进行预训练和对齐[15] - 预训练数据分类包括静态交通元素 动态交通参与者 点对点轨迹数据 占用网络 交通信号灯和交通流信息[18] - 基于Chain-of-Thought思维链进行四步推理:提供基本驾驶知识 CoT SFT 强化学习CoT 考虑延迟的CoT SFT[22][23] 模型优化与安全强化 - 监督微调(SFT)建模为"指令遵循"任务 使用筛选的好数据专门训练导航 舒适刹车等专用指令[27] - 后期训练(post-training)采用强化学习解决长尾案例 建立奖励模型确保行动一致性[29] - 强化学习设计三重奖励机制:安全(避免碰撞) 效率(避免卡壳) 合规(遵守交通规则)[30] 行业竞争核心要素 - 底层算法和架构相通 行业差距取决于高质量数据 大算力以及算法产品化和工程落地能力[32] - VLA概念需要基础成熟的LLM作为底座 针对性训练交通驾驶行为[32] - 基础模型蒸馏上车思路可加速开发并快速部署到不同算力平台 但前提需要大算力和高质量数据[32]
本轮AI算力行情的驱动因素
淡水泉投资· 2025-09-17 10:06
AI算力投资趋势 - AI行情经历从ChatGPT突破到Sora浪潮再到科技巨头加注的三阶段演进 算力需求从训练主导转向推理驱动 资本开支持续攀升推动市场成长预期 [1] - 推理端规模定律成为算力增长核心动力 AI应用需求落地推动编程/搜索/图像处理等使用量增长 用户调用与人机交互实时消耗算力 tokens消耗量激增 谷歌Gemini月消耗tokens一年增长50倍 [4][7] - 每年数千亿美元算力投资驱动产业链上游机遇 涵盖GPU及配套高速互联方案/电源/散热系统等环节 [7] 海外算力投资逻辑 - 产品升级与价格敏感上游环节受关注 芯片升级与互联升级构成产品迭代两大核心动力 [8] - 芯片升级推动配套系统持续迭代 英伟达从H系列过渡到B系列并计划推出R系列 芯片功耗提高推动电源规格从3kw升至5.5kw并可能达10kw以上 散热方案从风冷转向液冷 单系统价值量持续提升 [10] - 互联升级要求材料技术革新 高速线缆互联速率从112G向224G升级并可能向448G演进 对PCB和铜缆等材料提出更高要求 [10] - 价格敏感上游环节存在供给滞后效应 PCB产业链扩产存在传导滞后 上游扩产周期更长导致供给紧张价格弹性明显 [9] 国产算力发展机遇 - 中美算力储备增速出现差距 美国互联网公司算力储备几乎每年翻倍 国内受高端芯片禁运影响存在算力缺口 需国产算力芯片补足 [13] - 国产GPU单卡性能已可对标英伟达对华特供版 H20芯片性能低于部分国产GPU产品 [15] - AI算力从训练转向推理的趋势利好国产算力 推理对超大集群互联要求较低 有利于国产算力在特定场景满足需求 [15] - 国产算力需关注高壁垒与远期空间两大维度 晶圆制造/GPU芯片/半导体设备等上游环节壁垒高竞争格局优 GPU/AIDC/服务器ODM等环节远期市场空间大 [15] 产业趋势特征 - AI发展伴随高度不确定性 DeepSeek大模型曾引发算力通缩担忧 推理端需求增长使叙事重回乐观 需紧密跟踪产业趋势变化 [16]
张宏江外滩大会分享:基础设施加速扩张,AI步入“产业规模化”
贝壳财经· 2025-09-11 07:09
大模型规模定律 - 大模型参数越高性能越好 规模定律仍是大模型性能提升的第一性原则 [3] - 推理模型塑造大规模发展新曲线 推理规模定律成为新增长动力 [3] - 上下文和记忆等层面持续推升计算需求 推动模型持续扩展 [3] 大语言模型通缩效应 - 大模型单位token价格三年内快速下降 使用成本随性能提升持续降低 [3] - 模型通缩现象进一步强化规模定律 成本下降推动应用普及 [3] AI基础设施扩张 - OpenAI的Stargate和Musk的Colossus等项目驱动基础设施扩张 100万个GPU耗电量相当于北京市用电量八分之一 [3] - 2025年美国主要科技公司AI相关资本开支预计超3000亿美元 产业链经历大规模建设热潮 [3] - IDC产业大规模建设带动电力生态和经济发展 体现AI产业规模化核心特征 [3] 智能体经济变革 - 人类进入智能体群时代 数量庞大的智能体交互执行任务交换数据信息 [4] - 模型和GPU算力成为未来组织核心资产 企业需扩大算力强化模型丰富数据 [4] - 智能体重塑企业流程 超级个体与智能体结合带来巨大结构性变革 [4] 行业平台建设 - 外滩大会连续举办四届 打造全球金融科技产业高规格开放对话平台 [5] - 大会获得上海市地方金融管理局和黄浦区人民政府支持 成为重要行业交流载体 [5]
源码资本张宏江:AI 步入“产业规模化”
华尔街见闻· 2025-09-11 06:07
大语言模型发展趋势 - Scaling Law仍然有效 推理模型的出现塑造了大规模发展的新曲线即"推理规模定律" 上下文和记忆等层面对计算需求持续推升scaling up [1] - 大语言模型通缩现象进一步强化规模定律 单位token价格过去三年快速下降 模型性能持续提升导致使用成本不断降低 [1] AI基础设施扩张 - AI驱动基础设施大规模扩张 OpenAI的Stargate和Musk的Colossus等项目需100万个GPU 耗电量相当于北京市用电量的八分之一 [2] - 2025年美国主要科技公司AI相关资本开支预计超3000亿美元 AI数据中心产业链经历大规模建设热潮 [2] - IDC产业大规模建设带动电力生态和经济发展 体现AI产业规模化核心 [2] 智能体经济发展 - 人类正进入"智能体群"时代 数量庞大的智能体彼此交互执行任务交换数据和信息 [2] - 人类与智能体群的交互构成"智能体经济" 模型和GPU算力成为未来组织核心资产 [2] - 企业需要扩大算力使模型更强大数据更丰富 Agent将重塑企业流程带来巨大结构性变革 [2]
张宏江:基础设施加速扩张 AI正步入“产业规模化”
央广网· 2025-09-11 05:07
大模型规模定律 - 规模定律仍然有效 大模型参数越高性能越好 是性能提升的第一性原则 [1][2] - 推理规模定律成为新发展曲线 上下文和记忆等层面持续推升计算需求 [2] - 大语言模型通缩现象强化规模定律 单位token价格过去三年快速下降 使用成本持续降低 [2] AI产业化发展 - AI驱动基础设施大规模扩张 AI数据中心产业链经历大规模建设热潮 [2] - IDC产业大规模建设带动电力生态和经济发展 体现AI产业规模化核心 [2] 智能体经济变革 - 人类进入智能体群时代 数量庞大的智能体彼此交互执行任务交换数据信息 [3] - 模型和GPU算力成为未来组织核心资产 企业需要扩大算力增强模型和数据 [3] - Agent重塑企业流程 超级个体与agent结合带来巨大结构性变革 [3]
GPT-5“让人失望”,AI“撞墙”了吗?
华尔街见闻· 2025-08-17 03:00
核心观点 - OpenAI发布的GPT-5未能达到市场预期,未带来革命性突破,引发用户和投资者失望 [1][3][4] - AI行业竞争格局改变,OpenAI一家独大局面被打破,Google、Anthropic、DeepSeek和xAI等竞争对手已缩小差距 [4] - AI发展重心从追求AGI转向产品化和商业应用,资本市场更关注实际增长而非技术突破 [2][7][8] - "规模定律"面临瓶颈,数据枯竭和算力限制制约大型语言模型发展 [5] - 技术进步放缓引发对"AI寒冬"的担忧,但资本仍在持续涌入AI领域 [6] 技术表现 - GPT-5发布后因技术故障表现"笨拙",用户抱怨其不如前代产品,犯下低级错误如错误标注美国地图 [1][3] - CEO Sam Altman承认发布"坎坷",解释称底层"自动切换器"失灵导致系统调用较弱模型 [3] - 资深用户对其性能和"个性"变化不满,认为基准测试表现平平 [1] - 评估发现GPT-5在不同任务中表现并非明显逊色,但在成本效益和速度方面表现出色 [7] 行业竞争 - OpenAI一家独大局面不复存在,Google、Anthropic、DeepSeek和xAI等竞争对手已缩小前沿开发差距 [4] - 行业竞争焦点从模型能力极限转向更务实、更具成本效益的产品化落地 [2] - AI公司开始派遣"前线部署工程师"入驻客户公司帮助集成模型,显示战略转变 [7] 技术发展瓶颈 - "规模定律"面临两大制约:数据枯竭和算力限制 [5] - AI公司几乎耗尽互联网上所有免费训练数据,正寻求与出版商和版权所有者达成新数据交易 [5] - 训练和运行大型AI模型消耗巨大能源,GPT-5训练动用数十万颗英伟达下一代处理器 [5] - Altman承认底层AI模型仍在进步,但像ChatGPT这样的聊天机器人"不会变得更好了" [5] 资本市场反应 - 尽管技术前景争论不休,AI相关股票和初创公司估值持续飙升 [7] - 英伟达市值攀升至4.4万亿美元接近历史高点,OpenAI投资方软银集团股价过去一个月上涨超过50% [7] - ChatGPT为OpenAI带来年经常性收入达120亿美元 [8] - 今年AI已占全球风险投资总额的33% [6] 未来趋势 - 行业焦点从AGI转向产品化和商业应用创新 [2][7][8] - 纯文本训练的LLM进入回报递减阶段,基于多模态数据的"世界模型"仍有巨大潜力 [7] - 投资者认为当前模型中仍有巨大价值未被挖掘,商业和消费应用开发"刚刚触及皮毛" [8] - 即使无法实现AGI,仍有很多创新机会可创造商业价值 [8]
苹果和多家科技巨头唱反调
快讯· 2025-07-12 14:55
AI推理能力竞赛 - 行业焦点转向"推理能力" 各大科技公司包括OpenAI 谷歌 Anthropic正竞相推出具备推理能力的大模型 [1] - 规模定律被广泛接受 英伟达CEO黄仁勋表示模型越大 训练数据越多 智能系统效能和质量越好 [1] - 苹果发布《思考的错觉》研究报告 测试显示主流大模型在复杂推理任务上准确率接近零 [1] - 有观点认为苹果报告可能是战略行为 因该公司在大模型竞赛中落后于对手 [1]
研报金选丨别急着找下一个宁德时代,跟着这些“卖水人”能吃肉
第一财经· 2025-06-20 02:38
算力板块 - 英伟达在算力板块中已实现降耗70%,分析师乐观预计该领域渗透率可达80%,市场规模达400亿美元,并形成终局结构[4] - 规模定律从参数、算力扩展到并行流,互联带宽也将受到推动[5] - 在集群低功耗、高速率需求下,更高集成度可能是更优解决方案[6] - 行业头部通信设备厂商已有成熟方案,CPO交换机产业化可能即将到来[7] 固态电池 - 固态电池领域近期突破与产业化进程超预期提速,多家研究机构建议关注产业链主题投资机会[9] - 政策端和应用端不断加码,固态电池0-1产业化正在加速[10] - 固态电池潜在催化因素持续增加,产业链主题投资机会值得重视[11] - 预计2030年全球固态电池市场规模将超过2500亿元,国内有望在2027年进入快速增长期[12]
网络系列报告之CPO概览:光电协同,算力革新
国元证券· 2025-06-17 06:13
报告行业投资评级 - 推荐(首次) [6] 报告的核心观点 - 随着规模定律扩展,并行计算推动集群互联带宽需求,CPO技术因低功耗、高速率优势受重视,长期或成数据中心光电转换模块终局结构,国内供应商多布局产业链上游且全球化产能布局,看好天孚通信、太辰光等公司 [1][2][3] 根据相关目录分别进行总结 1 规模定律下模型参数量高增,并行及功耗需求推高集成 1.1 规模定律下参数量高增,计算并行流增长推集群互联带宽提升 - 模型规模扩展使算力需求增加,推理阶段算力需求指数型增长推动算力集群扩张,并行计算推动集群内互联带宽和通信器件需求提升 [14][17] 1.2 集群大规模、高速率、低功耗需求下,集成式模块或为更优选择 - 集群TCO中电费占比高,降低功耗可优化OPEX;集群规模扩张使通信设备价值量占比上行,CPO技术可提升带宽、功耗和空间效率,降低成本 [20][24][28] 1.3 CPO高性能、低功耗优势推渗透提升,上游器件供应商弹性可观 - CPO技术可形成“技术升级 - 成本下降 - 渗透加速”正向循环,预计到2027年800G和1.6T端口总数中CPO端口将占近30%;介绍了CPO系统组成架构及相关器件 [33][35][42] 1.4 行业头部通信设备厂已有成熟方案,CPO交换机产业化或在即 - 博通推出多款CPO交换机,不断提升交换容量、降低功耗;英伟达发布两款CPO交换机,降低了端口功耗 [52][58][63] 2 行业内重点公司分析 2.1 太辰光:产品成功导入康宁,MPO及光纤柔性板的领先供应商 - 太辰光产品应用广泛,客户包括康宁;营业收入和归母净利润整体增长,光器件产品占比提升;MPO产品领先,shuffle产品和光柔性板产品有优势,FAU产品开展相关工作 [67][70][74] 2.2 光库科技:子公司加华微捷业绩高增,前瞻布局薄膜铌酸锂 - 光库科技产品应用领域广,有多家子公司;营业收入和归母净利润整体增长,光纤激光器和光通讯器件占比近年下降;子公司加华微捷FAU产品布局全面,公司在薄膜铌酸锂材料有积累 [77][80][83] 2.3 天孚通信:英伟达CPO交换机技术合作伙伴,CPO板块多产品布局 - 天孚通信是光器件解决方案和封装制造服务商,产品应用广泛;营业收入和归母净利润高速增长,光有源和无源器件占主导;是英伟达CPO交换机合作伙伴,部分产品小批量生产,泰国产能布局推进 [87][91][95] 2.4 仕佳光子:领先光芯片供应商,间接投资MT插芯供应商福可喜玛 - 仕佳光子聚焦光通信,产品包括多种芯片和连接器;营业收入和归母净利润波动大,光芯片及器件产品占比提升;建立MPO生产基地,间接投资福可喜玛保障MT插芯供给 [98][102][105] 2.5 源杰科技:大功率激光器获千万级订单,推动业绩Q1同比高增 - 源杰科技专注高速半导体芯片,产品应用广泛;营业收入和归母净利润波动大,电信市场类收入占主导;数据中心产品有进展,研发CPO相关产品 [108][111][114] 2.6 光迅科技:前瞻布局CPO光源模块,受益国内云服务商的IDC建设 - 光迅科技是光电器件一站式服务提供商,产品应用广泛;营业收入和归母净利润稳健增长;前瞻布局CPO ELS光源模块 [116][117][120]
GPU集群怎么连?谈谈热门的超节点
半导体行业观察· 2025-05-19 01:27
超节点服务器概念与背景 - 超节点服务器是应对AI算力需求爆炸式增长的最优解,通过高效整合海量计算单元(CPU/GPU/TPU)实现前所未有的计算密度和效率[4][6] - AI模型参数从亿级跃升至万亿级,传统服务器显存和算力无法满足需求,模型并行成为必然选择但受限于服务器间网络带宽瓶颈[9] - 超节点三大核心特征:极致计算密度(单空间最大化算力)、强大内部互联(NVLink等技术)、AI负载深度优化(软硬件协同设计)[10] 技术演进历程 - 早期追求服务器密度的尝试(如1999年谷歌"软木板服务器")与超节点有本质区别,前者侧重资源池化而非算力整合[12] - GPU并行计算能力崛起成为关键转折点,Transformer等大模型推动NVLink等高速互联技术发展[13] - 英伟达DGX/HGX系列将8GPU+NVSwitch高度集成,形成典型超节点单元[14] 行业需求驱动因素 - AI大模型遵循规模定律(Scaling Law),模型规模与训练数据量增长直接带来算力需求指数级上升[16] - 长序列处理需求提升模型性能但显存需求急剧增加,2025年斯坦福报告显示训练算力年增长率达10倍[18][20] - 传统扩展方式面临三大瓶颈:内存墙(数据供给不足)、规模墙(集群扩展收益递减)、通信墙(并行计算通信开销)[21] 技术优势与解决方案 - 构建超大带宽域(HBD)实现纵向扩展(Scale-Up),8GPU服务器内通信带宽达130TB/s[22][37] - 集中式供电方案提升效率,液冷技术使PUE优于传统风冷,长期运营成本降低[24][26] - 模块化设计优化运维,大型风扇墙和集成电源组件比传统方案节能30%以上[26][29] 关键技术挑战 - 供电系统需应对100kW+机柜功耗,电压从48V向400/800V演进以减少线路损耗[31] - 冷却系统采用冷板式/浸没式液冷应对单芯片1000W+ TDP,散热效率提升5-10倍[32] - 网络系统需平衡铜缆/光缆成本与性能,InfiniBand和RoCE成为主流互联方案[32][37] 行业技术现状 - 英伟达GB200 NVL72集成72个Blackwell GPU,采用NVLink实现36CPU+72GPU逻辑统一,定义行业标准[35][37] - 华为CloudMatrix 384通过384颗昇腾芯片全光互联实现自主可控,但功耗较高[38][41] - 供电技术向48V直流母线槽演进,液冷采用直触式冷板技术,网络倾向RoCE以太网[33][34][37] 未来技术方向 - 数据中心供电向400V/800V高压直流(HVDC)转型,减少AC-DC转换损耗[40][43] - 下一代液冷技术包括微流控冷却(芯片表面蚀刻微通道)和相变液冷(利用潜热)[45] - 共封装光学(CPO)技术将光模块集成至芯片封装,提升I/O带宽密度并降低功耗[49] 行业影响与展望 - 超节点是AI算力基础设施的集大成者,融合芯片/互联/制冷/供电等尖端技术[46] - 技术演进将催生全新系统架构,如计算/内存/存储资源池化通过光路互联[49] - 行业正从单机柜级向跨机柜级超节点发展,推动AI集群算力规模突破现有上限[22][41]