Workflow
杰文斯悖论
icon
搜索文档
2025年下半年宏观、政策及资产配置展望:拨云见日
德邦证券· 2025-06-06 13:52
报告核心观点 - 展望下半年,特朗普关税 2.0 摩擦或已达峰,美国通胀隐忧高于衰退,欧洲经济在“夹缝中求生存”,日本经济韧性复苏但有风险点,中国经济可实现 2025 年 5%增长目标,宏观政策关注存量和增量 [2][12][13] - 资产配置应“攻守兼备、以逸待劳”,关注“低通胀”红利、科技产业、政策变量、新消费、债市、商品供需和黄金价格等逻辑 [3][14] 各部分总结 拨云见日,以逸待劳 - 2024 年“制造立国”和“见龙在田”观点获多方位验证,下半年大类资产配置受外部变化、内部趋势和政策变动影响,应把握确定性趋势和应对不确定性 [8] - 中美进入政治新周期,特朗普政府有“重塑全球分配体系”意图,外部对中国存在“误读误解”和“刻板印象”,“拨云见日”需“以我为主、励精图治” [2][9] - “以我为主”可打破“修昔底德陷阱”等叙事,促使“做多中国”力量涌现;“励精图治”以高质量发展应对外部不确定性,办好自己的事、改革破局、重视宏观政策多方面作用 [10][11] 拨云见日,励精图治 “修昔底德陷阱”并非必然 - “修昔底德陷阱”隐喻中美关系,被视为国际关系“铁律”,特朗普和拜登时期均有对华封锁、限制和打压政策,“中美对抗论”叙事造成误读 [16][17] - 破除“修昔底德陷阱”可从三方面看:中国无意改变美国主导的国际秩序;“以备战止战”才是核心逻辑,“必有一战”观点过于粗暴;“中国威胁论”不是“铁板一块”,未来可能从美国内部党争中瓦解 [17][22][24] 大国框架与中心叙事 - “大国框架”以大国视角分析问题,不考虑经济运行真实规律;“中心叙事”忽视“边缘”视角和现象,导致“全球南方”概念兴起 [25][26] - 应坚持共商共建共享的全球治理观,践行真正的多边主义,兼顾各方合理关切,维护国际规则和秩序 [27] 破除“后发劣势” - “后发劣势”观点认为后发国家模仿发达国家技术和管理模式,滞后的社会制度将带来负面影响,中国经济面临挑战时该观点甚嚣尘上 [28] - 以新质生产力助力中国式现代化发展,培育创新动能破解“后发劣势”;“Deepseek”时刻会越来越多,推动国内科技发展,吸引海外投资者关注 [29][32] “经济福利最大论”需纠偏 - “经济福利最大论”认为国民收入总量和分配均等化影响社会经济福利,当前有加大政策刺激力度甚至给居民“撒钱”的声音 [35] - 应关注与人的生活质量、生活水平关系紧密的变量,如生理需求与安全需求、购买力平价的经济增长 [36][44] 走出“唯地产论” - “唯地产论”形成的原因包括房地产投资拉动经济增长、决定经济周期、影响行业景气度、是地方财政重要来源、有正财富效应、吸纳就业和是金融体系核心底层资产等 [46] - 2022 年以来中国进入“去地产化”进程,应从经济、财政、居民财富和就业以及金融风险四个角度打破“固有思维” [47] - 经济增长层面,制造业投资和基建投资对冲地产下行,制造业成为稳增长重要力量,关注产业基础再造等四方面逻辑 [49][51][52] - 土地财政转型,房地产依赖度下降,“土地财政”收入体系涵盖显性和隐性收入,2022 年以来收入规模收缩,占比下降 [53][54]
史诗级合并,AI巨头要来了!
格隆汇APP· 2025-06-04 10:43
市场表现 - A股三大指数集体上涨,上证指数涨0.42%,深证成指涨0.87%,创业板指涨1.11% [1] - 硬科技赛道ETF表现强势,云计算沪港深ETF涨1.4%,计算机ETF涨1.17%,芯片ETF天弘近两日涨超1% [1] - 算力产业链集体反弹,光模块、铜连接方向领涨,太辰光涨14.88%,德科立涨11.56%,新易盛涨7.17% [4][5] - 可控核聚变题材活跃,融发核电涨5.23%,港股中广核矿业大涨超20% [6][7] 行业驱动因素 - 英伟达股价上涨近3%,超越微软成为全球市值最高公司,博通涨超3%创历史新高,带动A股算力基建股反弹 [4] - AI超算中心电力需求激增,单个中心功率达500兆瓦,能源巨头Constellation Energy与Meta签署20年核电供电协议 [8] - 国内核电投资1-4月完成额362.56亿,同比增长36.64%,远超电源投资1.6%的增速 [9] - 英伟达一季度数据中心营收同比增73%,AI推理市场需求高增长,token生成量一年激增10倍 [9] 公司动态 - 海光信息与中科曙光战略重组,中科曙光持股27.96%并入海光信息,预计6月9日复牌,实现"芯-端-云-算"全产业链布局 [11][12] - 计算机ETF(159998)近13日连续资金净流入,累计吸金1.47亿,规模28.48亿为同标的最大 [27][29] - 云计算沪港深ETF(517390)覆盖阿里、腾讯等港股互联网龙头及中科曙光等A股AI硬件公司,连续两日资金净流入 [27][29] - 芯片ETF天弘(159310)规模9.35亿,为深市同标的最大产品 [30] 产业趋势 - AI技术从实验室走向商用,大模型训练催生巨大算力需求,推动硬件、云服务和软件生态升级 [31] - 国产AI算力崛起,华为昇腾、海光、寒武纪等性能与成本综合优势显现,各地智算中心落地加速 [13][14] - 云计算作为AI基础设施,国产规模有望2025年突破万亿,计算机板块迎AI赋能价值重估 [23][25] - "杰文斯悖论"显现,AI效率提升反推芯片总需求增长,英伟达市值修复至3.5万亿美元 [20][21]
阿里云又丢出了核弹
华尔街见闻· 2025-05-07 14:41
阿里云AI战略布局 - 阿里云正式上线Qwen3系列模型"全家桶",包含2个MoE模型和6个稠密模型,参数规模从0.6B到235B,覆盖手机端到旗舰级体验,并一次性开源 [2] - Qwen3-4B小模型性能对标上一代Qwen-32B,发布两小时GitHub Star数超16.9k,显示市场高度关注 [2] - Qwen3采用混合推理架构,全球首个开源"快慢思考"集成模型,能自动识别任务场景切换思考模式,技术领先性显著 [5] 技术突破与成本优化 - Qwen3部署成本仅为DeepSeek-R1的四成(4张H20卡 vs 16张H20卡),性能全面超越国内领先模型 [6] - 模型支持MCP协议并推出Agent原生框架,孵化出爆款应用Manus(基于Qwen的Agent),推动AI应用生态 [13][14] - 阿里云通过"杰文斯悖论"效应刺激AI需求:Qwen3训练成本优化反而带动算力消耗激增,形成正向循环 [6] 集团AI化转型 - 阿里宣布未来三年投入3800亿建设云和AI基础设施,金额相当于近三年累计利润,战略级投入力度空前 [19][20] - 集团所有业务单元2025年绩效考核与AI应用成效挂钩,电商板块200+业务线联合通义团队开发智能功能 [21] - 夸克升级为集团AI旗舰应用,通义APP首批接入Qwen3模型,高德/飞猪/饿了么等快速落地AI功能 [23] 市场影响与财务前景 - 阿里云2024Q4营收317.42亿元(同比+13%),AI收入连续六季度三位数增长,市占率回升至26.1% [28][29] - 高盛预测2026/2027财年阿里云AI收入将达290亿/530亿元,占总收入20%/29%,推动整体收入增速超20% [29] - 摩根大通测算阿里云估值或达1850亿美元(按微软10.5倍PS),带动阿里整体市值从3045亿升至3910亿美元 [29] 行业竞争格局 - Qwen3实现中美大模型代际差抹平,开源生态已吸引90%上市银行/手机/汽车/家电品牌加入 [27] - 阿里构建"云计算底层+MaaS中间层+应用顶层"三位一体架构,布局完整度领跑国内互联网公司 [26][28] - 行业进入Agent元年,百万日活产品Agent化后token消耗激增30万倍,算力需求呈指数级增长 [16]
千问3的屠榜,是AI的一小步,也是阿里的一大步
搜狐财经· 2025-05-05 06:31
阿里AI战略与成果 - 阿里通过Qwen3系列大模型的发布确立了在开源大模型领域的全球领先地位 终结了关于其是否为AI公司的讨论 [2] - Qwen3系列模型在多项基准测试中表现优异 如235B版本在ArenaHard达到95.6分 显著优于OpenAl-o1(92.1)和Deepseek-R1(93.2) [3] - 公司宣布未来三年将投入3800亿人民币建设云和AI基础设施 金额超过过去十年总和 [5] 技术优势与成本控制 - Qwen3-235B仅需4张H20显卡即可部署 成本仅为竞品DeepSeek-R1(需16张H20)的30% [7] - 模型支持从0.6B到235B的全尺寸分类 适配手机/智能眼镜/机器人等多种终端设备 [7] - 具备自适应算力分配功能 可根据需求动态调整思考模式与非思考模式的资源调用 [9] 行业竞争格局 - 中国AI应用需求旺盛 2022年工业机器人安装量达29万台 远超日本等十国总和 [11] - 中国78%受访者对AI持乐观态度 显著高于美国的35% 反映两国市场接受度差异 [10] - 当前ChatGPT单产品月活已超过中国前十大AI产品总和 显示国内应用层仍有差距 [12] 战略定位与生态布局 - 公司采用"云+AI"组合拳战略 将云计算定位为AI时代的核心基础设施 [14] - 通过开源策略构建产业生态 已为夸克/钉钉等内部产品提供AI底层支持 [11][12] - 明确从模型训练向Agent中心时代过渡的技术路线 强化对计算资源的整合能力 [14] 行业发展趋势 - AI投资呈现"杰文斯悖论" 技术进步未降低资源消耗 反而刺激全球算力需求激增 [6] - 中美AI发展路径分化 美国侧重AGI愿景 中国更注重产业落地与实际问题解决 [10] - 中国互联网进入"智能化"十年周期 需将技术优势转化为商业动能与用户福祉 [13]
速递|DeepSeek等开源模型触发云服务定价权崩塌,咨询业是成AI最后付费高地?
Z Finance· 2025-04-03 03:20
人工智能支出趋势 - 大型云客户因价格下跌正在减少人工智能费用的支出 [1] - 网络安全公司Palo Alto Networks发现DeepSeek开源模型成本仅为OpenAI的5%并计划减少AI支出 [1] - 汤森路透在微软和谷歌云上的AI支出"基本持平"得益于模型价格下降 [7] - Intuit转向混合使用免费开源模型和OpenAI更便宜模型减缓了Azure上的AI支出增长 [8] 成本下降驱动因素 - Nvidia服务器芯片在过去一年中更容易以更低价格获取 [2] - 开源模型与OpenAI等商业模型的性能差距缩小导致成本急剧下降 [7] - DeepSeek模型成本仅为OpenAI一小部分引发行业震动 [8] 行业分化现象 - OpenAI、xAI、Anthropic和字节跳动等少数AI开发者推动云服务商收入增长 [6] - 开发AI驱动应用的年轻初创公司仍在增加AI投资 [11] - 普华永道等咨询公司增加AI支出以跟踪客户数据并提供最新技术 [13][14] - 仅OpenAI、Cursor、Glean和Perplexity等少数公司通过AI应用获得可观收入 [15] 商业生态影响 - 微软CEO认为成本下降将遵循杰文斯悖论带动整体AI需求增长 [8] - 微软Copilot和Salesforce Agentforce面临来自低成本竞争对手的定价压力 [16] - 微软将多个Azure销售团队销售配额降低多达40%可能与AI支出放缓有关 [17] 长期展望 - 价格下降可能吸引老旧行业公司加速AI技术采用 [9] - Palo Alto Networks计划在安全软件的其他AI技术领域增加投资 [10] - 工业机器人和复杂白领任务领域仍会为尖端模型支付高价 [12]
商汤科技:生成式AI收入连续两年三位数"狂飙",董事长和执行董事双双增持
格隆汇· 2025-03-28 11:20
文章核心观点 - 2024年商汤生成式AI业务收入高增长推动全年收入增长、亏损收窄,公司完成向生成式AI战略转型,“三位一体”战略巩固技术领先地位,技术普惠与商业价值创造共振,获多家机构看好 [1][8] 分组1:业务表现 - 2024年生成式AI业务收入突破24亿元,同比增长103.1%,推动全年收入同比增长10.8%达37.7亿元,亏损同比收窄33.7% [1] - 生成式AI业务在总收入中占比从34.8%提升至63.7%,标志公司完成从视觉AI向生成式AI战略转型 [1] 分组2:“三位一体”战略优势 技术领先 - 依托“大装置 - 大模型 - 应用”协同创新形成核心技术差异化优势,巩固技术领先地位 [2] - SenseCore大装置初步完成全国布局,适配国产芯片,算力连续两年翻番,总运营算力规模达23,000 PetaFLOP,同比增长92%,在综合能力评估中位列全球Top2、国内第一 [2] - 通过“大装置 + 大模型”协同优化赋能第三方开源模型,训练效率优于DeepSeek公开报告,提升模型训练与推理性能 [3] 应用领先 - 构建“一基两翼”应用布局,生产工具商业落地成果好,客户付费意愿增长6倍,交互工具关键指标居行业第一梯队,智能硬件交互接入超70家企业,在大模型应用市场份额排前三 [4] 分组3:技术普惠与商业价值 - DeepSeek崛起使大模型走向千行百业,商汤算力基础设施规模升级推动大模型推理成本下降,加速AI普惠与商业化落地 [5][6] - 商汤大装置市场占比稳居前三,视觉AI业务连续八年居中国计算机视觉市场份额第一,智慧汽车业务新增交付和定点车辆数增长 [6][7] 分组4:机构评级 - 中金公司、招银国际等券商给予“买入”“增持”评级,认为商汤技术优势和产业落地能力将推动企业价值释放,有望形成“戴维斯双击效应” [8]
黄仁勋没有告诉我们的细节
半导体芯闻· 2025-03-19 10:34
AI模型进展与扩展定律 - AI模型在过去六个月的改进速度显著加快,这一趋势将持续,主要得益于训练前扩展、训练后扩展和推理时间扩展三个扩展定律的协同作用[1] - Claude 3.7展示了卓越的软件工程性能,Deepseek v3大幅降低了上一代模型的成本,OpenAI的o1和o3模型表明更长的推理时间和搜索能带来更好的答案[3] - 行业正经历智能和tokens的爆炸式增长,Nvidia专注于将推理成本提高35倍以实现模型的经济高效部署[3] Nvidia硬件路线图 - Blackwell Ultra B300的FP4 FLOP密度比B200高出50%以上,内存容量升级到每包288GB HBM3E,但带宽保持8TB/s[11] - B300 NVL16将取代B200 HGX外形尺寸,采用16个封装和基板上的GPU芯片,使用CoWoS-L封装技术[12] - B300引入CX-8 NIC,网络速度提高一倍,达到InfiniBand 800G的总吞吐量[13] - Rubin将提供50 PFLOP密集FP4计算能力,比B300提升三倍多,采用3nm工艺和1800W TDP[16][17] - Rubin Ultra将计算能力提升至100 PFLOP密集FP4,HBM容量达到1024GB,是普通Rubin的3.5倍以上[24] Nvidia软件与系统创新 - Nvidia推出Dynamo AI引擎堆栈,简化部署和扩展推理,可能颠覆VLLM和SGLang[39] - Dynamo包含智能路由器、GPU规划器、改进的NCCL Collective推理、NIXL传输引擎和NVMe KV-Cache卸载管理器等关键功能[40][43][44][46][48] - Dynamo使DeepSeek创新民主化,允许社区部署高效的推理系统,特别有助于个人复制和更高交互性的部署[51][52] 网络与通信技术 - Nvidia推出首款共封装光学(CPO)解决方案,显著降低功耗,允许更大的交换机基数和更扁平的网络拓扑[57][58] - 对于400k GB200 NVL72部署,从基于DSP收发器的三层网络转移到基于CPO的两层网络可节省高达12%的总集群功耗[59] - Nvidia推出多款基于CPO的交换机,包括Quantum X-800 3400和Spectrum-X交换机,将于2025和2026年下半年推出[59] 行业影响与趋势 - 随着智能价格下降和能力前沿推进,对智能的需求将无限增长,AI对生活的实际影响仍处于起步阶段[4] - Nvidia通过Blackwell和Rubin等创新持续领先,Blackwell性能比Hopper高出68倍,成本降低87%,Rubin预计性能提升900倍,成本降低99.97%[53][54] - 快速改进的通用平台如Nvidia GPU难以被ASIC等替代方案击败,公司正重建其在计算领域的领导地位[61]
深度解读黄仁勋GTC演讲:全方位“为推理优化”,“买越多、省越多”,英伟达才是最便宜!
硬AI· 2025-03-19 06:03
英伟达GTC 2025技术创新与行业影响 核心观点 - 英伟达通过推理Token扩展、推理堆栈与Dynamo技术、共封装光学(CPO)等创新显著降低AI总拥有成本,巩固其在全球AI生态系统的领先地位 [2][5] - 三条扩展定律(预训练、后训练、推理时)协同作用推动AI模型能力持续提升 [8][10] - 硬件性能提升与成本下降形成"杰文斯悖论"效应:成本降低刺激需求增长而非抑制 [10][12] 推理Token扩展 - 现有模型Token数超100万亿,推理模型Token量达20倍,计算量高出150倍 [12] - 测试阶段需数十万Token/查询,每月数亿次查询;后训练阶段单个模型需处理数万亿Token [13] - 代理能力AI推动多模型协同工作,解决复杂问题 [13] 黄仁勋数学规则 - 第一条规则:FLOPs数据以2:4稀疏度计,实际密集性能为公布值的2倍(如H100 FP16密集性能1979.81 TFLOPs) [15] - 第二条规则:带宽按双向计量(如NVLink5报1.8TB/s=900GB/s发送+900GB/s接收) [16] - 第三条规则:GPU数量按封装中芯片数计(如NVL144含72个封装×2芯片) [16] GPU与系统路线图 Blackwell Ultra B300 - FP4 FLOPs密度较B200提升超50%,内存容量升至288GB/封装(8×12-Hi HBM3E),带宽维持8TB/s [20] - 采用CoWoS-L封装技术,16个GPU封装组成B300 NVL16系统 [21][22] - 引入CX-8 NIC(800G吞吐量),比CX-7提升一倍 [22] Rubin系列 - 采用台积电3nm工艺,50 PFLOPs密集FP4性能(较B300提升3倍) [25][26] - 关键改进:I/O芯片释放20%-30%面积、1800W TDP、128×128张量核systolic array [27][28] - HBM4容量288GB(8×12-Hi),带宽13TB/s(总线2048位,6.5Gbps针速) [32] Rubin Ultra - 性能翻倍至100 PFLOPs密集FP4,HBM4E容量1024GB(16×16层32Gb DRAM) [36] - 系统总高速存储365TB,Vera CPU配1.2TB LPDDR [37] - 采用Kyber机架架构,NVL576配置含144封装×4芯片=576计算芯片 [39][44] 推理堆栈与Dynamo技术 - Smart Router实现多GPU负载均衡,避免预加载/解码阶段瓶颈 [56][58] - GPU Planner动态调整资源分配,支持MoE模型负载均衡 [59][60] - NCCL小消息传输延迟降低4倍,NIXL引擎实现GPU-NIC直连(免CPU中转) [61][62] - NVMe KV-Cache卸载管理器提升56.3%缓存命中率,释放预加载节点容量 [65] CPO技术突破 - 功耗显著降低:400k GB200 NVL72集群总功耗节省12%,收发器功耗占比从10%降至1% [75] - 网络扁平化:三层→两层拓扑,Quantum X-800 CPO交换机提供144×800G端口 [76] - 长期潜力:提升GPU扩展网络基数,支持超576 GPU的规模化部署 [77] 成本效益与行业地位 - Blackwell较Hopper性能提升68倍,成本降87%;Rubin预计性能提升900倍,成本降99.97% [69] - 技术迭代速度使竞争对手难以追赶,形成平台优势 [79][80] - CPO、机架设计等创新持续扩大与竞争对手差距 [78][79]
深度|SemiAnalysis万字解析英伟达GTC 2025:为推理而生,从硅片到系统再到软件的推理优化,买得越多,赚得越多
Z Finance· 2025-03-19 03:41
文章核心观点 - AI计算竞赛中效率提升成影响市场格局关键变量,Nvidia硬件进步和软件优化推动推理成本下降,虽引发市场对AI硬件“供过于求”担忧,但符合“杰文斯悖论”,计算力普及将催生更多应用推高AI产业规模,Nvidia重新定义GPU计算经济学并开创行业标准 [1] AI模型进展与市场担忧 - AI模型进展速度加快,三个扩展定律叠加协同工作,今年GTC致力于解决新扩展范式,Nvidia专注提高推理成本以实现模型训练和部署,口号从“买得越多,省得越多”变为“省得越多,买得越多” [4] - 市场担忧软件优化和硬件改进致成本过高使AI硬件需求下降、市场供过于求,但随着智能价格下降和能力提升,对智能需求将无限增长,Nvidia提供数据支持杰文斯悖论 [5][6] 詹森数学规则 - 第一条规则是Nvidia总体FLOP以2:4稀疏度与密集FLOP表示,如H100的FP16的989.4 TFLOP被引用为1979.8 TFLOP [10] - 第二条规则是带宽以双向方式引用,如NVLink5传输和接收速度均为900GB/s,被引用为1.8TB/s [10] - 第三条规则是GPU数量根据封装中GPU芯片数量而非封装数量计算,从Rubin开始采用此命名法 [11] GPU和系统路线图 布莱克韦尔Ultra B300 - B300以GPU形式出售,位于可装入口袋的SXM模块上,带Grace CPU和可装入口袋的BGA,与B200相比,FP4 FLOP密度高出50%以上,内存容量升级到每包288GB,带宽仍为8 TB/s [16] - B300 HGX版本现称B300 NVL16,将取代B200 HGX外形尺寸,采用16个封装和基板上的GPU芯片,封装技术采用CoWoS - L,16个GPU通过NVLink协议通信,不具备Astera Labs的重定时器,部分超大规模计算厂商将选PCIe交换机,还将引入CX - 8 NIC,网络速度提高一倍 [17][18] Rubin规格 - Rubin在台积电3nm上配备两个光罩大小计算芯片,两侧有I/O模块,提供50 PFLOP密集FP4计算能力,比B300一代提升三倍多,通过I/O芯片释放空间、采用3nm工艺、提高TDP和架构扩展等实现 [21] - Rubin再次使用Oberon机架架构,与Vera CPU配对,新机架有72个GPU封装但命名为VR200 NVL144,含144个计算芯片,Nvidia HBM容量保持288GB升级到HBM4,带宽达13TB/s,采用6代NVLink速度翻倍,NVSwitch ASIC聚合带宽翻倍 [24][25][26] Rubin Ultra规格 - Rubin Ultra性能提升显著,HBM堆栈从8个跃升至16个,计算面积和能力翻倍达100 PFLOP密集FP4,HBM容量达1024GB,系统有365 TB快速内存/第二层LPDDR,将引入Kyber Rack架构 [30][31][32] Kyber Rack架构 - 关键新功能是将机架旋转90度增加密度,NVL576配置下每个计算盒有一个R300 GPU和一个Vera CPU,PCB板背板取代铜缆背板,可能有VR300 NVL1,152变体,还将推出7代NVSwitch [33][35] 改进型指数硬件单元 - GPU中GEMM在张量核心执行,专注元素级指数计算的MUFU单元性能提升慢,在bf16 Hopper和FP8 Hopper上计算softmax存在问题,Blackwell Ultra重新设计SM并添加指令,MUFU单元性能提高2.5倍 [39][40][41] 推理堆栈和Dynamo - 去年GTC讨论GB200 NVL72比H200推理吞吐量提高15倍,今年Nvidia在硬件和软件领域加速推理吞吐量提升,Blackwell Ultra GB300 NVL72和Rubin一代网络升级提高推理吞吐量,软件领域推出Nvidia Dynamo [43][46] - Dynamo带来智能路由器、GPU规划器、改进的NCCL Collective推理、NIXL、NVMe KV - Cache卸载管理器等新功能,全面提升推理速度,使DeepSeek创新民主化,有助于个人复制和更高交互性部署 [47][49][60] AI总拥有成本 - Blackwell性能比Hopper高出68倍,成本降低87%,Rubin预计性能是Hopper的900倍,成本降低99.97%,Nvidia追求进步,建议生态系统优先部署下一代系统 [61][63] - 研究的H100租赁价格预测框架准确率达98%,结合多方面估计构建预测价格曲线 [64] CPO插入 - Nvidia宣布首款共封装光学(CPO)解决方案,部署在横向扩展交换机中,CPO降低功耗,可使网络扁平化一层,400k* GB200 NVL72部署从三层网络转两层网络可节省12%总集群功耗 [69][70] - 推出多款基于CPO的交换机,Quantum X - 800 3400的CPO版本2025年下半年推出,Spectrum - X交换机2026年下半年推出,长远看CPO可增加GPU扩展网络基数和聚合带宽 [73][75] 行业地位 - 尽管亚马逊Trainium芯片定价低,但Nvidia技术领先,新架构、机架结构、算法改进和CPO使其与竞争对手拉开差距,预计将继续领先 [76]
AI投资机会怎么看?外资机构发声
证券时报· 2025-03-13 05:07
AI推动新一轮资本开支增长 - 全球主要科技企业正在推动新一轮资本支出扩张,美国四大云服务和AI企业的资本开支总额预计将从2023年的1500亿美元增长至2024年的3000亿美元,实现翻倍 [3] - 半导体企业成为AI基础设施建设的重要受益方,英伟达数据中心相关收入预计从2023年的500亿美元增长至2024年的约1800亿美元,增长超过三倍 [3] - AI模型从预训练发展到训练后优化(如RLHF)将推动算力需求持续增长,对AI基础设施的需求维持高位 [4] 低成本革命开启中国资产重估 - DeepSeek发布的大型语言模型引发市场对中国科技企业估值逻辑的重塑,低推理成本与强大制造业供应链让中国在AI应用和物联网领域的推进速度有望超过美国 [6] - 中国在数据、研发和人才方面的优势推动DeepSeek成功,训练成本降低将加速AI技术落地并推动设备更新换代 [6] - 中国科技"七巨头"概念兴起,AI行情带动科技股新一轮价值重估,中国可能首次在全球技术革命中处于领先地位 [7] AI+产业链重塑未来投资方向 - 半导体、机器人、算力基础设施等方向将在AI革命与全球制造升级背景下迎来持续发展机遇 [9] - 半导体行业在医疗、航空航天、能源基础设施、机器人等新兴领域具有巨大增长空间 [9] - 中国在全球供应链中扮演关键角色,尤其在机器人领域从核心零部件到整机全产业链占据主导地位 [9] - AI技术将深入实体经济,带动智能制造、自动驾驶、物联网等多场景落地,中国企业有望在全球产业链中占据更高地位 [10] - 重点关注AI在具身智能、消费电子、智能驾驶等领域的应用,以及半导体硬件、云计算等基础设施和国产高端装备、芯片制造等自主可控领域 [10]