英伟达B200
搜索文档
AI人工智能ETF(512930)涨超1.4%,谷歌将上市TPUV7重塑AI芯片竞争格局
新浪财经· 2025-12-19 05:27
截至2025年12月19日 13:03,中证人工智能主题指数(930713)强势上涨1.59%,成分股均胜电子(600699) 上涨7.92%,德赛西威(002920)上涨7.38%,新易盛(300502)上涨4.56%,中科创达(300496),星宸科技 (301536)等个股跟涨。AI人工智能ETF(512930)上涨1.43%,最新价报2.13元。 AI人工智能ETF(512930),场外联接(平安中证人工智能主题ETF发起式联接A:023384;平安中证人工 智能主题ETF发起式联接C:023385;平安中证人工智能主题ETF发起式联接E:024610)。 数据来源:wind 风险提示:基金有风险,投资需谨慎。基金管理人承诺以诚实信用、勤勉尽责的原则管理和运用基金资 产,但不保证本基金一定盈利,也不保证最低收益。基金管理人提醒投资人基金投资的"买者自负"原 则,在做出投资决策后,基金运营状况与基金净值变化引致的投资风险,由投资人自行负担。基金的过 往业绩及其净值高低并不预示其未来业绩表现,基金管理人管理的其他基金的业绩不构成对本基金业绩 表现的保证。投资人购买基金,既可能按其持有份额分享基金投资所产生 ...
中国银河证券:谷歌(GOOGL.US)将上市TPUv7 重塑AI芯片竞争格局
智通财经· 2025-12-19 01:35
文章核心观点 - 谷歌即将上市的TPU v7(Ironwood)芯片技术指标比肩英伟达B200,其上市将加剧AI芯片市场竞争,并有望提升谷歌自身AI芯片市占率 [1] - TPU v7的推出将全面推动AI产业从硬件到软件生态的全产业链变革,自上而下带动上游环节需求,并为AI模型研发与应用普及注入动力 [2] - 随着谷歌TPU v7的上市,国内液冷、电源、PCB领域有望迎来新的发展机遇,同时国产算力芯片在国产替代趋势下长期上行 [1] 谷歌TPU v7产品技术细节 - 芯片名称为“Ironwood”,单芯片峰值算力达到4614 TFLOPs(FP8精度),配备192GB HBM3e内存,内存带宽高达7.4TB/s,功耗约1000W [1] - 与前代产品相比,Ironwood的算力提升了4.7倍,能效比达到每瓦29.3 TFLOPs,是前代产品的两倍 [1] - 服务器散热采用100%液冷架构,采用大冷板设计,覆盖4颗TPU及VRM;集群规模上最大支持144个机架互联,即9216个TPU芯片集群 [1] TPU v7的应用场景与客户 - TPU v7聚焦AI推理场景,支持实时聊天机器人、智能客服、智能驾驶等低延迟需求,同时可扩展至大规模模型训练 [2] - Anthropic计划用百万颗TPU训练Claude系列模型 [2] - Meta拟从2027年起在数据中心部署TPU,2026年通过谷歌云租用算力 [2] - 谷歌自身将TPU v7用于Gemini等模型的训练与服务,其超大规模集群能力与低成本优势正成为AI企业降低推理成本的首选方案 [2] 对产业链的影响与机遇 - TPU v7的上市将自上而下带动ASIC芯片、PCB、封装、HBM、光模块、散热、制造封装等上游环节需求 [2] - 随着明年谷歌TPU v7的上市,国内液冷、电源、PCB领域有望带来新的发展机遇 [1] - 随着AI芯片竞争格局不断深化,国产算力芯片在国产替代趋势长期上行 [1] 行业竞争格局展望 - 未来AI芯片的市场竞争将更加激烈,谷歌有望凭借TPU v7系列产品提升自身AI芯片市占率 [1][2] - 除芯片外,谷歌还同步推出一系列升级,旨在让其云服务更便宜、更快、更灵活,以便与亚马逊AWS和微软Azure竞争 [2]
昇腾950全解 全新自研HBM
2025-12-16 03:26
昇腾 950 全解 全新自研 HBM20251215 摘要 华为 950 系列芯片将于 2026 年推出,支持中低端精度,分为 950PR(等效 HBM2~2E)和 950DT(等效 HBM3)两个版本,旨在 提升互联带宽和内存容量,增强整体性能。 华为未来的芯片发展方向是提升互联带宽和内存容量,例如 960 将达到 9.6TB/s 的内存带宽,与英伟达 B200 相当,但受限于国内制程技术, 互联带宽的增长速度可能放缓。 华为自研 IO 单元具备较强连接能力,NPU IO 能力达到 72 路 UB(每路 UB 约 30GB/s),CPU 采用类似结构,并有低基数交换机 LIS(72 路 UB)和高维度交换机 HRS(512 路 UB),通过拼接形成更大面积的交 换芯片。 国产芯片在算力方面与英伟达 B 系列存在差距,例如,预计到 2028 年 的 970 才能与 B200 持平,Ruby 系列芯片的制程优势明显,国产芯片 需要进一步提升制程技术才能缩小差距。 如果英伟达 H200 进入国内市场,国产算力芯片在单芯片性能上难以直 接竞争,超级点架构可能是国产芯片与 H200 抗衡的重要手段,这将显 著增加对交 ...
英伟达H200如果放开,中国会接受吗?
傅里叶的猫· 2025-11-22 15:21
H200可能放开的背景与现状 - 关于H200放开的传闻最早由彭博社报道,描述为“初步讨论”阶段,存在仅停留在讨论层面而永不落地的可能性[1][2][3] - 此次讨论源于此前中美领导层会晤,市场曾预期更先进的Blackwell架构芯片会放开,但最终未谈及,据华尔街日报消息是因美方高级顾问反对[4][7] - 高端Hopper架构芯片的放开事宜可能已讨论较长时间[9] H200性能规格与市场定位 - H200基于Hopper架构,相比H100在GPU内存(从80GB HBM3提升至141GB HBM3e)和内存带宽(从3.35 TB/s提升至4.8 TB/s)上有显著升级,热设计功耗最高达1000W[10][11] - 在双精度浮点运算(FP64 Tensor Core)性能上,H200与H100保持一致,均为33.5 TFLOPS,但在特定高精度计算场景下其FP64 Tensor Core算力(67 teraFLOPS)强于B200(37 teraFLOPS)[10][19] - H200的单卡算力和显存带宽被认为高于国内AI芯片[13] 海外云服务市场对H200的使用与定价 - 美国主要云服务供应商(如GOOGL、AMZN、META、MSFT)的服务器折旧年限多在4至6年,H100和H200均处于正常使用周期[13][14] - 在Coreweave租赁平台,H200的每小时使用价格为3.50美元,略低于B200的5.50美元,但高于H100的2.95美元[15] - 在AWS和GCP上,H200的定价甚至高于B200,反映出其在特定场景的适配性更强及资源稀缺性[16][18] - H系列芯片在海外云服务器中使用率很高,部分原因是大量“遗留负载”迁移成本高昂,此情况同样存在于国内云服务提供商[20][21] 对中国市场潜在影响的判断 - 基于H200在海外的高使用率及其性能特点,分析认为若美国真的放开H200出口,中国方面基本会予以放行[22] - 此前H20放开后因“后门问题”已被禁止采购,同时证明国内已具备可替代H20的AI芯片能力[13] 英伟达国内供应链信息更新 - 文章梳理了英伟达在国内液冷和电源产业链的相关上市公司信息,涉及企业包括英维克、思泉新材、科创新源、淳中科技、鼎通科技、麦格米特、京泉华、金盘科技、四方股份等[24] - 表格列出了各公司的出货产品、产品市占率、供货方式、产品毛利率及2026年订单交付预期等关键数据[24]
国产推理芯片,赢了英伟达?
雷峰网· 2025-11-19 06:38
文章核心观点 - 算力市场的投资逻辑正从英伟达等国际厂商向国产算力切换,其驱动力包括高额补贴政策、国产芯片技术成熟度提升、以及推理等特定场景的性价比优势 [1][2] - 国产算力在政策支持下已具备商业化可行性,一二级市场热情高涨,而英伟达设备贸易则因利润微薄和信任危机遇冷 [2][3][4] - 国产芯片正步入卖方市场,其独特的直销模式、产能限制以及推理需求的爆发共同推动了市场的快速增长 [18][19][20] 政策支持与补贴 - 北上深杭等承担国家人工智能发展任务的城市,国产算力项目可享受40%的国家全额补贴,叠加地方政府补贴后最高可达项目总投入的70%-80% [8] - 八大算力节点城市可获得10%-15%的基础补贴,叠加超长期国债与地方补贴后,力度最高可达40% [8] - 为杜绝套壳骗补,补贴要求消纳方为互联网大厂等指定主体或在当地注册并形成一定规模的企业,以带动当地GDP增长和税款 [9] - 最新“窗口指导”文件要求有补贴参与的项目需全部使用国产芯片,部分已开工但进度较低的项目需拆除已使用的国外芯片 [9] 国产算力商业化进展 - 科大讯飞与华为联合打造的国产算力集群在MoE模型训练上实现93%的效率 [3] - 中科院部署了4096张沐曦算力卡,共计984P算力 [3] - 蚂蚁集团已部署万卡规模的国产算力集群,训练任务稳定性超过98% [3] - 一级市场融资活跃,曦望完成近10亿元人民币Pre-A轮融资,昉擎科技完成数亿元人民币天使轮融资 [4] - 二级市场算力及半导体板块领涨,中证半导体产业指数近三个月上涨42.48%,寒武纪、海光信息等企业股价年内翻倍 [4] 技术迭代与场景适配 - 国产芯片已完成2-3代产品迭代,达到可对标英伟达主流卡水平 [12] - 推理需求爆发式增长,火山引擎豆包大模型日均Token用量从2024年5月的1200亿飙升至2025年9月的30万亿,增幅达253倍 [13] - 2028年中国推理算力市场规模将达2931.2亿元 [13] - 推理任务的技术特性(如Decoder架构、局部计算)无需追求极致计算性能,为国产芯片提供了精准适配空间 [14][15] - 华为基于910B推出专家并行方案,显著降低单卡显存占用并将单卡并发能力提升至3倍 [16] - 异构集群应用成熟,天数智芯天垓150与英伟达H20组成的集群已成功应用于DeepSeek的大规模推理场景 [17] 市场格局与渠道变化 - 英伟达设备贸易利润急剧下滑,一张4090显卡利润仅约200元,而2023年一台A100转手可赚十万元 [4] - 国内AI芯片市场正进入高速增长通道,年增长率判断在50%,甚至有望达到70%-80% [20] - 国产芯片销售以“公对公”直销模式为主,头部厂商采用白名单机制仅向大型企业及国企开放合作 [21] - 芯片原厂主导销售与技术服务,服务器厂商(如浪潮、新华三)负责硬件组装但技术支持能力不及原厂 [22] - 服务器厂商对通用性较低的国产芯片备货审慎,导致市场流通货源减少,国产芯片逐步走入卖方市场 [23] 竞争态势与未来趋势 - 国产芯片商业化落地窗口期短,若一年内未能形成批量采购则意味着落地不成功 [26] - 超节点产品崛起,通过优化互联链路与架构实现整体性能弯道超车,例如昇腾384超节点支持数万卡集群扩展 [26][27] - 头部厂商单套超节点产品落地价约7000-8000万元,为加速市场渗透部分项目折扣力度可达五折 [28] - 国产AI芯片软件生态仍处于“各立标准”的分散状态,模型迁移需1-3个月适配周期,生态统一标准是未来突破关键 [29]
英伟达最强对手,来了
半导体行业观察· 2025-11-07 01:00
TPU v7 (Ironwood)性能突破 - 谷歌最新一代Ironwood TPU加速器性能实现重大飞跃,性能是TPU v5p的10倍,是TPU v6e"Trillium"的4倍 [4] - 单个Ironwood TPU提供4.6 petaFLOPS的密集FP8性能,略高于英伟达B200的4.5 petaFLOPS,略低于GB200/GB300的5 petaFLOPS [3] - 计算平台配备192GB HBM3e内存,提供7.4 TB/s带宽,与英伟达B200(192GB HBM,8TB/s内存带宽)处于同一水平 [3] - 每个TPU具有四个ICI链路,提供9.6 Tbps总双向带宽,而英伟达B200/B300为14.4 Tbps (1.8 TB/s) [3] 大规模扩展架构优势 - 谷歌TPU以Pod形式提供,单个Ironwood模块可通过专有互连网络连接多达9216个独立芯片 [7] - 9216颗芯片共享1.77PB高带宽内存,互连带宽高达9.6 Tbps,相当于在不到两秒内下载整个美国国会图书馆 [7] - 采用光路交换技术构成动态可重构架构,组件故障时可在几毫秒内自动绕过中断点,保持工作负载运行 [7] - 液冷系统整体正常运行时间保持约99.999%可用性水平,相当于每年停机时间不到6分钟 [8] - 采用3D环面拓扑结构,每个芯片以三维网格形式连接其他芯片,无需使用高性能数据包交换机 [8] Axion CPU战略布局 - 谷歌部署首款基于Armv9架构的通用处理器Axion,基于Arm Neoverse v2平台构建 [11] - Axion旨在比现代x86 CPU提升高达50%性能、高达60%能效,比云端最快通用Arm实例性能高30% [11] - 该CPU每个核心配备2MB私有L2缓存,80MB L3缓存,支持DDR5-5600 MT/s内存和统一内存访问 [11] - 早期客户Vimeo报告核心转码工作负载性能提升30%,ZoomInfo在Java服务上性价比提升60% [12] 软件生态系统与生产力 - AI超级计算机客户平均实现353%三年投资回报率,降低28% IT成本,提高55% IT团队效率 [14] - 谷歌Kubernetes Engine为TPU集群提供高级维护和拓扑感知功能,实现智能调度和高弹性部署 [14] - 开源MaxText框架支持监督式微调和生成式强化策略优化等高级训练技术 [14] - 推理网关通过前缀缓存感知路由等技术,将首次令牌延迟降低96%,服务成本降低高达30% [14] - 推理网关监控关键指标并智能路由请求,对共享上下文的请求路由到同一服务器以减少冗余计算 [15] 行业竞争格局与客户采用 - Ironwood Pods的FP8 ExaFLOPS性能被谷歌称为是其最接近竞争对手的118倍 [7] - 谷歌TPU v4支持最大4096芯片POD,TPU v5p提升至8960芯片,Ironwood进一步达到9216芯片 [16] - Anthropic计划利用多达一百万个TPU来训练和运行其下一代Claude模型 [16] - 亚马逊Trainium 2加速器在其计算结构中也采用2D和3D环面网格拓扑结构 [16]
IREN(IREN.US)签署多年期AI云合同,GPU部署助推营收潜力超5亿美元
智通财经· 2025-10-07 12:33
公司业务发展 - 公司与多家人工智能企业签署额外的多年期云服务合同,涉及英伟达Blackwell系列GPU的部署[1] - 公司近期已扩大其AI云服务产能,计划到2026年第一季度末,使当前运营及已订购的2.3万台GPU实现年化运营收入超5亿美元[1] - 在2.3万台GPU中,已有1.1万台的客户合同落地,对应AI云服务年化经常性收入约2.25亿美元,这批GPU预计将于2025年底前投入运营[1] - 公司两周前宣布斥资约6.7亿美元采购英伟达和AMD的GPU,以加速其人工智能云业务增长[1] 公司财务表现 - 截至2026年第一季度末,公司2.3万台GPU有望实现年化运营收入超5亿美元[1] - 已签约的1.1万台GPU对应AI云服务年化经常性收入约2.25亿美元[1] - 公司近期GPU采购总价值约6.74亿美元,包括7100台英伟达B300 GPU、4200台英伟达B200以及1100台AMD MI350X[1] 公司市场表现 - 该消息推动公司股票在美股盘前一度上涨12%,截至发稿时上涨7%[1] - 两周前宣布大规模GPU采购的消息曾引发公司股价大涨超10%[1] 行业动态 - 公司作为数据中心运营商兼比特币矿企,正积极向人工智能云服务业务拓展[1] - 公司大规模采购英伟达和AMD的高性能GPU,反映了行业对AI计算能力的强劲需求[1]
斥资约6.7亿美元采购GPU IREN Limited(IREN.US)涨近7%
智通财经· 2025-09-22 15:35
公司股价表现 - 周一公司股价上涨近7%,续创历史新高,今年累计涨幅达319% [1] 重大资本开支计划 - 公司宣布斥资约6.7亿美元采购英伟达和AMD的GPU,以加速人工智能云业务增长 [1] - 采购包括7100台英伟达B300 GPU、4200台英伟达B200 GPU以及1100台AMD MI350X GPU,总价值约6.74亿美元 [1] - 此次采购使公司GPU总装机量提升至约23,000台 [1] 业务发展规划与目标 - 新采购的设备将分阶段交付至公司位于乔治王子城的园区 [1] - 预计此次投资将支持公司在2026年第一季度末实现超过5亿美元AI云业务年经常性收入的目标 [1]
盘前涨超10% IREN(IREN.US)斥资6.7亿美元采购英伟达和AMD GPU
智通财经网· 2025-09-22 13:09
公司战略与投资 - 公司宣布斥资约6.74亿美元采购英伟达和AMD的GPU,以加速其人工智能云业务增长 [1] - 采购设备包括7100台英伟达B300 GPU、4200台英伟达B200以及1100台AMD MI350X [1] - 此次采购使公司GPU总装机量提升至约23,000台 [1] 业务运营与展望 - 新采购的设备将分阶段交付至公司位于乔治王子城的园区 [1] - 预计此次投资将支持公司在2026年第一季度末实现超过5亿美元AI云业务年经常性收入的目标 [1] - 公司强调其垂直整合平台的优势及满足长期紧迫需求的能力,并指出交付前预签约模式的转变为AI云业务增长注入新动能 [1] 市场反应与行业背景 - 全球算力需求加速增长,客户日益寻求能快速实现规模化的合作伙伴 [1] - 在宣布此消息的当日盘前交易中,公司股价上涨超过10% [1]
液冷技术趋势与产品量价
2025-09-03 14:46
液冷技术行业研究关键要点 行业与公司 * 液冷技术行业主要服务于高功耗数据中心散热需求[1] * 涉及公司包括英伟达、AMD、华为、英特尔、酷冷Master ABC、比亚迪等国内外厂商[3][6][12][21] 技术需求驱动力 * 高功耗芯片模组推动液冷技术发展 GPU功耗从2026年Rubin系列1800瓦提升至2027年Rubin Ultra系列3600瓦[1][5] * 政策要求新建数据中心PUE值达到1.3 国家级项目低于1.25[1][4] * 液冷显著降低数据中心运营费用 北京某客户改造后PUE值从2.2降至1.1 年用电量节省57.5%[1][4] * 数据中心密度与算力提升需求[4] 技术方案与成本 * 主流液冷解决方案包括直接接触式 浸没式和喷淋式[1][7] * 单向冷板液冷技术成熟且性价比高 每千瓦成本3000至4000人民币[3][16] * 浸没式液冷热效率更高但成本较高 每千瓦成本6000至10000人民币[3][16] * 两相浸没式成本比单向浸没式贵50%至100%[16] * 矿物油价格每升约4美元 氟化液如3M FC40每升约90美元[18] 产品发展与价值量 * 英伟达产品线持续演进 2025年Blackwell G3 B300性能较B200提升1.5倍[4] * 2026年Rubin系列机架从NVL72升级到NVL144 性能提升3.3倍[4] * 2027年Rubin Ultra系列机架密度升级到NVL576 整体性能提升14倍[4][5] * 单机柜液冷系统价值量从GB200的7万美元提升至GB300的8.5万美元 增幅23%[10] * 冷板单价从650美元降至300美元 但总价值从2.9万美元增至3.5万美元 提升20%[10] * 快接头总价值从4800美元增至1.5万美元 增幅200%[10] * CDU价值量基本持平 在2.5万到3.5万美元之间 占比从50%降至41%[10] 市场出货与产能 * 预计2025年GB200机柜出货量2.5万到3万套[2] * 主要客户为北美云厂商包括微软 Meta OpenAI等[2][11] * 月度出货量从4月1000-1500台增长到5月2000-2500台[11] * 第二季度总产量预计5000-6000台[11] * 主要供应商是广达 伟创和红海[11] * 酷冷Master ABC产能无法完全满足需求 部分订单流向其他厂商[3][21] 国内厂商发展 * 国内GPU厂商通过增加密度和数量弥补单芯片性能差距[3][13] * 华为推出Cloud Metrix 384系统 以深腾910C芯片为基础[12] * 华为芯片性能为英伟达B200或B300的一部分 整体功耗是英伟达同类产品四倍[12] * 国内厂商在成本 响应速度和定制化程度具备优势[3][20] * 国内厂商通过快接头 CDU等产品突破市场 逐步获得英伟达认证[20][21] 应用领域扩展 * 液冷技术在内存条 光模块 ASIC芯片和交换芯片等领域应用广泛[3][15] * 内存条功耗从10-15瓦提升至35-40瓦[15] * 光模块从800G升级到1.6T甚至3.2T 功耗增加且部署密度提高[15] 技术挑战 * 氟化液存在环保和安全问题 GWP环保问题 有毒性及泄漏问题[3][16][19] * 英特尔等公司研究新型矿物油替代方案[3][17] * 相变液体在低温时需具有较低热传导率 温度达到一定程度后触发相变[19] * 对焊接 分装 防泄漏和防腐蚀工艺要求更高 增加整体成本[19] * 所有相变材料都有衰减和泄漏问题 需要定期补充液体[19] 市场格局 * 英伟达在全球市场占据60%至70%份额[13] * 国外高性能显卡无法进入中国市场 国内企业得以部署国产GPU[3][14] * 单向或两相传统数据中心改造难度小 市场占比70%到80%[18] * 静默系统仅在一些特定场景如加密货币挖矿或HPC中使用[18]