Workflow
Rubin Ultra GPU
icon
搜索文档
千亿液冷龙头诞生!英伟达、谷歌芯片功耗飙升引爆散热革命,这些A股公司有望受益!
私募排排网· 2025-12-24 12:00
本文首发于公众号"私募排排网"。 (点击↑↑ 上图查看详情 ) 近期, A股市场在经历近2个月盘整后再度迎来上涨,上证指数重回3900点关口,板块方面,AI算力产业链再爆发,其中CPO龙头新易盛股价再 创历史新高,12月23日其股价盘中最高触及466.66元的历史高位,若从4月9日46.56元的最低价起算,期间股价已翻十倍!(可参考: CPO、 PCB等AI算力概念王者归来?一文盘点机构重仓的AI算力概念股! ) 而 在 AI产业链配套的液冷环节中,相关个股同样表现不凡,液冷龙头英维克股价自12月以来持续上涨创新高,12月24日盘中股价最高触及 112.73元创下历史新高,截至收盘其股价为111.17元/股,12月至今涨幅已超50%,公司最新总市值超千亿 ! ( 点此领取液冷概念股名单 ) | | TPU v4 | TPU v5p | Ironwood | | --- | --- | --- | --- | | | 2022 | 2023 | 2025 | | Pod Size (chips) | 4096 | 8960 | 9216 | | HBM Bandwidth/ | 32 GB | 95 GB | ...
港股异动 | 蓝思科技(06613)涨超3% 此前宣布收购元拾快速切入服务器供应链
智通财经网· 2025-12-17 02:33
公司动态与市场表现 - 蓝思科技股价上涨3.3%至25.7港元,成交额达5205.83万港元 [1] - 公司计划以现金及其他方式收购裴美高国际100%股权,从而间接持有元拾科技95.1164%股权 [1] - 目标集团主营业务为服务器机柜及其结构件、服务器液冷模组的生产与销售 [1] - 里昂证券预期该交易将于明年完成,重申对蓝思科技“跑赢大市”评级,目标价维持38港元 [1] 收购的战略意义与业务前景 - 里昂证券认为,此次收购将有助于蓝思科技打入英伟达AI服务器供应链 [1] - 该交易预计将推动公司AI服务器业务规模实现快速增长 [1] 行业技术发展趋势 - 甬兴证券指出,液冷技术有望成为行业发展趋势 [1] - 芯片功耗持续提升,例如GB300的TDP功耗预计将提升至1400W,英伟达下一代Rubin Ultra GPU功耗更有望达到2300W [1] - 根据美国暖通制冷空调行业协会(ASHRAE)推荐,当芯片TDP大于300W且机柜功率密度大于40kW时,推荐使用液冷制冷技术 [1] - 数据中心对能耗的要求越来越高,进一步推动了液冷行业的发展 [1]
告别54V时代,迈向800V,数据中心掀起电源革命
36氪· 2025-08-07 11:21
AI数据中心电力需求变革 - 全球AI数据中心电力需求正因ChatGPT、Claude、DeepSeek等AI应用爆发而达到临界点,机架功率从传统20-30kW跃升至500kW-1MW级别,英伟达单AI GPU服务器功率逼近1kW,满配NVL AI服务器机柜功率突破100kW [1] - 2027年规划的1MW AI Factory机架集群对供电系统提出颠覆性要求,行业加速向800V直流HVDC高压体系演进,该架构可降低能量损耗、提升能效并支持兆瓦级部署 [1] 传统供电系统局限性 - 传统54V直流供电系统在兆瓦级机架中面临空间占用过大问题:NVIDIA GB200 NVL72设备需8个电源架占用64U空间,挤压计算设备安装空间 [2] - 1MW机架采用54V供电需200千克铜母线,1GW数据中心需50万吨铜,且重复交直流转换导致效率低下和故障隐患增加 [3] - 800V HVDC方案可将13.8kV交流电直接转换,减少中间环节,降低70%维护成本并提升5%端到端能效 [4][5] 行业技术布局动态 - 英伟达2025年牵头成立800V HVDC联盟,目标2027年实现1MW单机架供电,整合芯片/电源/电气工程/数据中心全产业链 [4] - 微软推出Mount DrD Low分离式架构计划升级至400V HVDC,谷歌设计±400V全场直流供电方案,Meta分三步推进兆瓦级HVDC [5] - 英诺赛科成为英伟达800V架构唯一中国合作商,合作推动单机柜功率突破300kW,算力密度提升10倍 [6] 国产供应链技术突破 - 长电科技在800V架构中覆盖PSU/IBC/PoL全环节:提供TO263-7L/TOLL/TOLT封装分立器件和塑封模块,兼容GaN/SiC材料 [7] - 实现双面散热PDFN封装和SiP技术突破,完成60A以上高集成度电源模块研发,建立从热仿真到性能优化的全流程服务能力 [8] GaN技术优势分析 - 英诺赛科入选源于GaN供应紧张(台积电关闭产线),GaN相比SiC在高压场景具备更优性能表现 [9] - GaN HEMT器件具有ns级开关速度、无反向恢复电流特性,适合高频应用,能提升转换效率并缩减设备体积 [10][11] - GaN器件通过二维电子气导电实现低导通电阻,在800V架构中可减少发热量并提高功率密度 [12]
台积电下一代技术或延期!
国芯网· 2025-07-16 14:31
台积电CoPoS封装技术延期 - 台积电CoPoS封装技术量产时间可能从原计划的2027年推迟至2029-2030年,主要由于技术不成熟,包括面板与晶圆差异处理、更大面积翘曲控制及更多重分布层(RDL)等挑战 [1] - 该技术旨在通过更大面板尺寸(310x310mm)提升面积利用率,支持英伟达等客户的AI GPU需求 [1] 英伟达潜在技术路线调整 - 技术延期可能促使英伟达在2027年计划推出的Rubin Ultra GPU上采用多芯片模块(MCM)架构,类似亚马逊Trainium 2设计,以规避单一模块封装限制 [1] 台积电资本支出与技术布局 - 台积电可能将2026年芯片后段资本支出转向其他技术如WMCM和SoIC,以应对CoPoS延期 [1] - CoWoS产能分配成为AI产业链关键监测点 [1] 行业影响 - 野村产业调研显示台积电CoPoS技术发展进度明显放缓,原计划2027年量产推迟至2029年下半年 [1]
台积电关键技术,或延期
半导体芯闻· 2025-07-16 10:44
台积电CoPoS技术延期影响 - 台积电CoPoS封装技术量产时间可能从原计划的2027年推迟至2029-2030年,主要因技术不成熟,包括面板与晶圆差异处理、大面积翘曲控制及多重分布层(RDL)等挑战 [2][3][4] - 该技术旨在通过更大面板尺寸(如310x310mm)提升面积利用率,支持AI GPU需求,但进度明显放缓 [4] 英伟达产品路线调整 - CoPoS延期可能迫使英伟达在2027年推出的Rubin Ultra GPU转向多芯片模块(MCM)架构,类似亚马逊Trainium 2设计,通过基板连接分散的GPU模块 [2][3][5] - 原计划需8个CoWoS-L互连器整合芯片堆栈,现可能改为两个模块各含4个GPU [5] - 架构调整或增加设计复杂性和成本,但可规避技术延误风险 [6] 台积电资本支出与技术布局 - 台积电CoWoS产能预计2025年底达7万片/月,2026年底达9-10万片/月,后续增长或依赖效率提升而非设备采购 [7] - CoPoS延期或促使2026年后段资本支出(占总量10%)转向晶圆级多芯片模块(WMCM)和系统集成芯片(SoIC)技术 [7] - 市场对WMCM预期可能过度乐观,而SoIC预期较保守 [8] 设备供应商潜在影响 - CoPoS相关设备供应商(如至圣工业、天虹科技、友威科技)可能因技术延期推迟需求,但仍有望受益于长期投资 [8]
台积电下一代芯片技术进度或慢于预期,这对AI芯片产业链意味着什么?
华尔街见闻· 2025-07-16 03:26
台积电CoPoS技术延期影响 - 台积电CoPoS封装技术量产时间可能从2027年推迟至2029-2030年,主要因技术不成熟,包括面板与晶圆差异处理、大面积翘曲控制及更多重分布层等技术挑战[1][2] - CoPoS技术旨在通过更大面板尺寸(310x310mm)提升面积利用率,支持AI GPU需求[2] 英伟达产品策略调整 - 英伟达可能被迫在2027年推出的Rubin Ultra GPU上采用多芯片模块(MCM)架构,类似亚马逊Trainium 2设计,以规避CoPoS延迟影响[1][3] - 原计划需8个晶圆大小CoWoS-L互连器整合芯片堆栈,现可能改为将4个Rubin GPU分布在两个模块上通过基板连接[3] - 架构调整可能增加设计复杂性和成本,但可规避技术延误风险[3] 台积电资本支出与产能规划 - 台积电2025-2026年CoWoS月产能预计分别为7万片和9-10万片晶圆,未计划进一步提前采购设备[4][5] - 2026年后段资本支出(占总量10%)可能更多投向晶圆级多芯片模块(WMCM)和系统集成芯片(SoIC)技术[1][5] - 市场对WMCM预期可能过度乐观,而对SoIC预期较保守[5] 产业链设备商影响 - FOPLP设备供应商如至圣工业、天虹科技、友威科技可能受益于CoPoS相关投资,但技术延误或推迟其设备需求[5]
英伟达,主宰800V时代
半导体芯闻· 2025-07-11 10:29
Nvidia主导AI数据中心电力架构革新 - Nvidia虽不设计功率器件,但正在定义下一代AI数据中心的动力总成架构,推动800V高压直流(HVDC)技术转型[1] - 合作伙伴包括英飞凌、MPS、Navitas等半导体厂商,以及台达、施耐德电气等电力系统供应商[1] - 计划2027年推出Rubin Ultra GPU和Vera CPU,淘汰54V机架配电技术以应对千瓦级功率需求[4] 宽带隙半导体技术竞争格局 - 英飞凌被Yole评为电力电子领导者,覆盖SiC、GaN及半导体继电器全技术栈[9][12] - Navitas通过收购GeneSiC强化SiC能力,同时利用GaN技术开发48V至处理器供电方案[13] - Yole预测GaN增速将超SiC,SiC市场约1亿美元而GaN机会更大[16] 800V HVDC技术挑战与创新 - 需开发800V转12V/50V高密度转换器,GaN因高频特性适合中压转换,SiC主导高压环节[6][8] - 新型半导体继电器需求涌现,需解决过流保护问题替代传统机械开关[9] - 固态变压器技术可能重塑电网架构,Navitas布局超高压SiC相关应用[14] 行业生态与标准化进程 - Nvidia的激进路线可能使开放计算项目(OCP)标准过时,导致数据中心兼容性分化[15] - 超大规模企业如谷歌/Meta的应对策略未明,电力电子供应商或需服务多套技术路线[15][16]
下一代GPU发布,硅光隆重登场,英伟达还能火多久?
半导体行业观察· 2025-03-19 00:54
核心观点 - 英伟达在GTC大会上发布了新一代GPU路线图,包括Blackwell Ultra、Vera Rubin和Feynman架构,展示了其在AI计算领域的持续创新 [2][7][13] - 公司预计2028年数据中心资本支出规模将突破1万亿美元,美国四大云端龙头已订购360万个Blackwell芯片 [1] - 黄仁勋强调AI计算正经历根本性变革,从文件检索转向Token生成,数据中心建设向加速计算发展 [43][44] Blackwell Ultra平台 - Blackwell Ultra提供288GB HBM3e内存,比原版Blackwell的192GB提升50% [3] - FP4计算能力比H100提升1.5倍,NVL72集群运行DeepSeek-R1 671B模型仅需10秒,而H100需要1.5分钟 [4] - 单个Ultra芯片提供20 petaflops AI性能,DGX GB300 Superpod集群拥有300TB内存和11.5 exaflops FP4计算能力 [3] - 适用于代理式AI和物理AI应用,可自主解决复杂多步骤问题和实时生成合成视频 [6] 性能对比 - B300在FP4 Tensor Dense/Sparse性能达15/30 petaflops,比B200的10/20 petaflops提升50% [4] - FP64 Tensor Dense性能达68 teraflops,比B200的45 teraflops提升51% [4] - 与Hopper一代相比,HGX B300 NVL16在大型语言模型推理速度提升11倍,计算能力提升7倍,内存增加4倍 [5] Vera Rubin架构 - 计划2026年下半年发布,包含Vera CPU和Rubin GPU,性能比Grace Blackwell显著提升 [7][9] - Vera CPU采用88个定制ARM内核,NVLink接口带宽1.8 TB/s,比Grace CPU快两倍 [8] - Rubin GPU提供1.2 ExaFLOPS FP8训练性能,是B300的3.3倍,内存带宽从8 TB/s提升至13 TB/s [9][10] - NVL144机架配置提供3.6 exaflops FP4推理能力,是Blackwell Ultra的3.3倍 [11] 硅光技术 - 公司计划在Quantum InfiniBand和Spectrum Ethernet交换机中部署共封装光学器件(CPO) [17] - CPO技术使信号噪声降低5.5倍,功率需求减少3.3倍,可连接GPU数量增加3倍 [25][26] - 首款Quantum-X CPO交换机将于2025年下半年推出,提供144个800Gb/s端口 [27] - Spectrum-X CPO交换机计划2026年下半年推出,最高支持512个800Gb/s端口 [28] 行业动态 - OpenAI计划建设容纳40万个AI芯片的数据中心,Meta计划2024年底拥有60万个H100等效计算能力 [29][30] - 公司股价在发布会后下跌3.4%,反映市场对竞争加剧的担忧 [31] - 谷歌、Meta和亚马逊都在开发自研AI芯片,行业竞争日趋激烈 [30] 未来路线图 - 2027年下半年推出Rubin Ultra,采用NVL576配置,提供15 exaflops FP4推理性能 [12] - 2028年计划推出Feynman架构,进一步推动AI计算性能边界 [13] - 黄仁勋预计数据中心建设投资将很快达到1万亿美元,加速计算成为转折点 [42][43]