英伟达(NVDA)
搜索文档
AMD Strix Halo对线Nvidia DGX Spark,谁最强?
半导体行业观察· 2025-12-26 01:57
文章核心观点 文章对英伟达DGX Spark与基于AMD Strix Halo的惠普Z2 Mini G1a两款AI迷你工作站进行了全面的性能对比与评估,旨在为不同需求的用户提供选购参考[1][53][54] 核心结论是:选择取决于用户需求是“一台专门的AI机器”还是“一台能胜任大多数AI工作的通用PC”[54] 对于主要关注单批次LLM推理、需要运行Windows/Linux以及玩游戏的用户,基于AMD Strix Halo的惠普Z2 Mini G1a是更具性价比和灵活性的选择[55][57] 对于专注于原型代理、模型微调或图像/视频生成等高性能AI工作负载的用户,尽管价格更高,但英伟达DGX Spark凭借其2-3倍的性能优势和更成熟的软件生态,是更专业的“开箱即用的AI实验室”[57] 产品定位与价格 - **产品定位**:DGX Spark被设计为开箱即用的AI实验室,专注于多节点AI计算环境[10][57];惠普Z2 Mini G1a则是一款能够流畅运行Windows/Linux和游戏的通用PC,同时能处理大多数AI工作负载[52][57] - **官方售价**:DGX Spark建议零售价为3,999美元,惠普Z2 Mini G1a的测试配置零售价约为2,949美元[12] - **市场价格弹性**:两款系统均有更便宜的OEM或简化配置版本,例如128GB Strix Halo系统价格可略高于2000美元,而1TB存储的Spark OEM版本起价约为3000美元[13] 设计与硬件配置 - **外观与设计**:Spark采用全金属机身,体积更小(150mm x 150mm x 50.5mm),重量1.2kg,设计更精致[4][12];G1a机箱更大(85mm x 168mm x 200mm),重量2.3kg,外壳为塑料但内部为金属机箱,维护更方便[4][5][12] - **核心平台**:Spark基于英伟达Grace Blackwell (GB10)超级芯片[11];G1a基于AMD Ryzen AI Max+ Pro 395 (Strix Halo) APU[11] - **计算单元**:Spark拥有6,144个CUDA核心、192个第五代Tensor核心和48个第四代RT核心[11];G1a的GPU(Radeon 8060S)拥有2,560个流处理器和40个计算单元[11] - **内存与存储**:两款系统均配备128 GB LPDDR5x内存,Spark内存带宽为273 GB/s,G1a为256 GB/s[11][26];Spark配备4 TB NVMe存储,G1a配备2个1 TB M.2 NVMe SSD[11] - **I/O与连接**:Spark优先高速网络,配备1个10GbE端口和2个总计200Gbps的QSFP端口用于集群[10][12];G1a提供更丰富的通用接口,包括2个40 Gbps Thunderbolt 4端口、1个2.5 GbE端口和多个USB端口,并支持HP Flex IO模块扩展[9][12] CPU性能 - **CPU架构**:G1a采用16个Zen 5核心,频率最高5.1GHz[11][15];Spark采用20核Arm CPU(10个X925性能核心+10个A725能效核心)[11][15] - **性能表现**:在Sysbench、7zip和HandBrake等测试中,G1a的CPU性能比Spark高出10%到15%[15];在Linpack高性能计算基准测试中,G1a的双精度浮点性能达到1.6 teraFLOPS,是Spark(708 gigaFLOPS)的两倍多[16] GenAI理论性能与内存带宽 - **理论峰值性能**:Spark宣称AI算力可达1 petaFLOPS(稀疏FP4),但实际稠密FP8/FP16峰值性能约为250/125 teraFLOPS,实测BF16下为101 teraFLOPS,FP8下为207 teraFLOPS[18];Strix Halo平台宣称总性能为126 TOPS,其中NPU占50 TOPS,GPU估计峰值性能约为56 teraFLOPS(稠密BF16/FP16),实测达到理论值的82%,约46 teraFLOPS[19] - **性能优势比较**:理论上,Spark在原始AI算力上比Strix Halo具有2.2至9倍的优势[20] - **内存带宽**:Spark内存带宽为273 GB/s,G1a为256 GB/s,两者差距不大[11][26] LLM推理性能 - **单批次/单用户推理**:在Llama.cpp测试中,两款系统生成令牌的速度相近,G1a在使用Vulkan后端时略有优势[24][26];但在处理提示(首次输入时间)时,Spark的GPU速度是G1a的2-3倍,对于长序列或大型文档输入,Spark优势更明显[27] - **多批次推理**:在使用vLLM处理大批量任务(1-64批次)时,Spark凭借更强的GPU,在吞吐量和完成时间上均超越G1a[29][31] 模型微调性能 - **内存适应性**:两款128GB内存的系统都适合进行模型微调,包括使用LoRA/QLoRA技术[34] - **性能对比**:在对Llama 3.2 3B进行完整微调时,Spark的完成时间约为G1a的三分之二[36];在对Llama 3.1 70B使用QLoRA微调时,Spark耗时约20分钟,G1a耗时超过50分钟[38] - **适用场景**:对于不频繁进行的微调任务,Spark的性能优势可能不足以抵消其更高的价格[38] 图像生成性能 - **性能差距**:在ComfyUI中运行FLUX.1 Dev图像生成模型时,Spark的BF16性能约为120-125 teraFLOPS,是G1a(约46 teraFLOPS)的2.5倍左右[42] - **结论**:图像生成不是Strix Halo系统的强项[42] NPU性能与应用 - **硬件配置**:Strix Halo集成了XDNA 2 NPU,提供50 TOPS的额外AI算力[11][44] - **软件生态**:NPU的软件支持有限,主要用于音频/视频降噪等低功耗场景[44];在LLM推理上,纯NPU运行Mistral 7B仅4-5 tok/s,远低于预期[44];解耦推理(NPU处理提示,GPU处理解码)性能有提升,但仍不及纯GPU[45] - **特定优势**:在Amuse软件中运行Stable Diffusion 3模型时,NPU性能优于GPU,能在1分多钟生成1024x1024图像,而GPU需要约两倍时间[46][48] 软件与生态系统 - **英伟达优势**:Spark拥有基于CUDA的成熟、活跃的软件生态,几乎所有CUDA软件都能无缝运行[48][57] - **AMD进展**:AMD的ROCm和HIP软件栈已取得显著进展,许多PyTorch脚本无需修改即可运行,但体验仍不如CUDA流畅[48][49];部分软件(如vLLM、Llama.cpp)仍需从源码编译或使用特定分支[49] - **硬件限制**:Strix Halo基于较老的RDNA 3.5架构,不支持Spark Blackwell GPU提供的许多低精度数据类型(如FP4、FP8),经常被迫以16位精度运行模型[50] 游戏与其他工作负载 - **游戏兼容性**:G1a能流畅运行《孤岛危机:重制版》等游戏,在1440p中等画质下可达90-100帧[52];Spark基于Arm CPU,运行x86游戏需借助FEX等工具,过程更复杂,但最终也能流畅运行[52] - **通用性结论**:对于同时需要AI能力和通用计算(包括游戏)的用户,G1a或类似Strix Halo系统是更自然的选择[52][57]
英伟达的最大威胁:谷歌TPU凭啥?
半导体行业观察· 2025-12-26 01:57
谷歌TPU的发展背景与动机 - 谷歌作为全球最大的信息检索系统公司,其使命“组织全球信息”高度依赖机器学习技术,该技术自2000年代中期起已广泛应用于搜索排序、垃圾邮件过滤、广告点击率预测等核心业务,为公司创造了每年数十亿美元的收入[10][11] - 在深度学习兴起前,谷歌通过大规模通用服务器集群支撑复杂模型训练,例如一篇2012年的论文记录使用一个由1,000台机器、共16,000个CPU核心组成的集群,连续运行约三天来训练一个拥有10亿连接、处理1000万张图像的模型[11][12] - 随着模型规模和计算密度急速扩张,依赖通用CPU集群的方式触及性能与能耗瓶颈,促使谷歌转向专用机器学习加速器路线[13] - 谷歌于2011年启动Google Brain项目,旨在结合深度神经网络与公司庞大的分布式计算基础设施和海量数据,训练此前规模难以企及的神经网络系统[13] - 早期深度学习开发完全基于CPU运行,直到Alex Krizhevsky在2013年加入谷歌后,才引入GPU进行神经网络训练,谷歌随后于2014年决定购买约40,000个NVIDIA GPU,花费约1.3亿美元[18][23] - 尽管GPU在训练上表现优异,但在全球范围内大规模部署模型进行推理时面临挑战,例如,若每位Android用户每天仅使用三分钟语音识别,通过CPU进行深度学习推理将迫使公司服务器数量增加两到三倍,成本高昂[24][25] - 依赖GPU存在潜在效率损失和单一供应商的战略风险,促使谷歌考虑定制硬件方案,目标是在推理任务上相较GPU实现约10倍的成本性能优势[26][27] 第一代TPU (TPU v1) 的诞生与设计 - 谷歌在15个月内完成了从概念到数据中心部署的壮举,于2015年初成功部署第一代TPU[4][42] - 项目快速成功的关键因素包括:团队的单一日程焦点、采用700 MHz的时钟频率和完全调试的28nm工艺,以及数据中心部署团队的高效协调[42] - TPU v1的架构灵感源于1978年H.T. Kung和Charles E. Leiserson提出的“脉动阵列”理论,该设计通过有节奏的数据流动和计算,非常适合大规模矩阵运算[31][33][50] - TPU v1的核心是一个256x256的脉动阵列矩阵乘法单元,执行8位整数乘法,采用量化技术以节省芯片面积和能耗[62][65] - TPU v1采用CISC设计,仅有约20条指令,通过PCIe接口从主机接收指令,关键指令包括读取主机内存、读取权重、执行矩阵乘法/卷积、应用激活函数以及写回主机内存[66][67][68][69][70][72] - 软件栈方面,谷歌开发了驱动程序使其深度学习框架TensorFlow能够与TPU v1协同工作,确保与CPU和GPU软件栈的兼容性[73] - TPU v1由台积电采用28nm工艺制造,芯片面积的24%用于矩阵乘法单元,29%用于统一缓冲区内存,仅2%用于控制逻辑,体现了架构的简洁高效[74][75] - 在性能上,TPU v1专注于推理任务,其拥有NVIDIA K80 GPU 25倍的乘累加单元和3.5倍的片上内存,在推理速度上比K80 GPU和Intel Haswell CPU快约15至30倍,能源效率更是高出25至29倍[78][79] TPU的迭代演进与技术升级 - **TPU v2 (2017)**: 定位为服务端AI推理和训练芯片,架构上进行多项重大改变,包括引入通用向量单元、将矩阵单元作为向量单元的卸载、采用高带宽内存,并添加互连以实现高带宽扩展,其核心采用超长指令字架构和线性代数指令集[82][83][90][91][92] - **TPU v3 (2018)**: 在v2基础上温和升级,矩阵单元和HBM容量增加两倍,时钟速率、内存带宽和芯片间互连带宽提升1.3倍,算力达420TFlops,内存128GB,并首次引入分布式训练框架和液冷技术[95] - **TPU v4i (2020)**: 定位为服务器端推理芯片,单核设计,增加了片上SRAM存储,引入四维张量DMA引擎和共享片上互连,时钟频率达1.05 GHz[99][100][104][106][108] - **TPU v4 (2021)**: 采用7nm工艺,峰值算力275TFLOPS,性能全球领先,通过引入光路交换机解决大规模集群的互连规模和可靠性问题,并公开了对稀疏模型的支持[114][117] - **TPU v5e (2023)**: 强调成本效益,专为大模型和生成式AI打造,与TPU v4相比,每美元训练性能提升高达2倍,每美元推理性能提升高达2.5倍,成本不到TPU v4的一半,支持从13B到2万亿参数的模型[119][120][123][126] - **TPU v5p (2023)**: 性能大幅提升,浮点运算次数和内存带宽分别提升2倍和3倍,大语言模型训练速度实现2.8倍的代际提升,提供459 teraFLOPS的bfloat16性能或918 teraOPS的Int8性能,支持95GB高带宽内存[127] - **TPU v6/Trillium (2024)**: 训练效果提高4倍以上,推理吞吐量提高3倍,能源效率提高67%,高带宽内存容量和芯片间互连带宽均实现翻倍,在12个Pod规模下扩展效率高达99%[129][133] - **TPU v7/Ironwood (2025)**: 采用3nm制程工艺,实现全方位突破,FP8峰值算力高达4614TFlops,较第二代TPU提升3600倍,配备192GB的HBM3E显存,单芯片内存带宽达7.2TBps,并首次在TPU系列中支持FP8计算[142][143][145] TPU v7的核心架构创新 - 应用3D堆叠技术,通过混合键合将逻辑层与内存层以10微米间距堆叠,减少信号延迟,并将功耗降低30%[147] - 引入新型计算核心FlexCore,每个核心包含4096个乘累加单元,支持FP32、FP16、BF16、FP8混合精度计算,并采用三级缓存结构,其中L3缓存容量达64MB/核心[148] - FlexCore集成了稀疏计算加速器,通过动态稀疏化技术,在训练中可自动屏蔽80%的零值数据,提升计算效率[149] - 采用光互联技术,在芯片上直接集成激光器和光调制器实现硅光子集成,利用波分复用技术使单链路带宽达1.6TB/s,将芯片间通信延迟从第六代的20微秒降低至5微秒[150] 软件生态与系统优化 - 编译器XLA得到显著改进,通过优化技术使模型在TPU v7上的运行速度提高30%[152] - 分布式训练框架针对大规模集群优化,在训练万亿参数语言模型时,训练时间较上一代缩短40%[153][154] - 配备增强版SparseCore,专为处理推荐系统等场景中的超大稀疏嵌入而设计,能大幅提升相关计算效率[154] - Pathways机器学习运行时在跨芯片计算中发挥关键作用,能高效协调数万个TPU芯片,在训练大型语言模型时可将效率提高50%[155] 应用表现与市场意义 - TPU v7在超大规模模型训练中展现卓越性能,其高算力、大内存和高带宽能显著缩短训练时间,并有望降低30%至50%的总体训练成本[156][157][158] - 在AI推理场景,特别是针对混合专家模型,TPU v7通过软硬件协同优化,可实现推理延迟降低50%以上,成本降低40%以上[158][160][161] - TPU系列的成功迭代证明了定制化AI加速硬件的可行性与巨大潜力,挑战了NVIDIA GPU在AI计算领域的绝对主导地位,表明市场存在多元化的竞争路径[5][163]
连英伟达都开始抄作业了
钛媒体APP· 2025-12-26 01:38
文 | 下海fallsea,作者 | 胡不知 2025年12月24日,平安夜的硅谷没有温情。当大多数人沉浸在节日氛围中时,AI算力圈传来一则足以 改写行业格局的消息:英伟达宣布以200亿美元现金,与曾喊出"终结GPU霸权"的AI芯片初创公司Groq 达成技术许可协议。 "这不是收购,却胜似收购。"伯恩斯坦分析师Stacy Rasgon一针见血地指出,"本质是英伟达用金钱换时 间,把最危险的颠覆者变成自己人,同时规避反垄断审查的障眼法。" 这场交易的背后,是AI产业的历史性转折——从集中式模型训练,全面迈入规模化推理落地的新阶 段。推理市场正以年复合增长率65%的速度扩张,预计2025年规模突破400亿美元,2028年更是将达到 1500亿美元。而英伟达的GPU霸权,在推理赛道正遭遇前所未有的挑战:谷歌TPU凭借成本优势抢食大 客户,AMD MI300X拿下微软40亿美元订单,中国的华为昇腾在本土市场份额已飙升至28%。 曾被视为"GPU终结者"的Groq,为何最终选择与英伟达联手?200亿美元的天价交易,能否帮英伟达守 住算力王座?这场"招安"背后,更折射出AI芯片行业创新者的集体困境:当技术颠覆者撞上巨头的 ...
2个印度人,搞出全球第一「AI妖股」,0芯片、狂飙550倍看呆英伟达
36氪· 2025-12-26 00:40
AI泡沫里不仅有神话,还有鬼话。 你可能从未听说过RRP半导体有限公司,但此刻一定在懊悔两年前没能押注这家公司。 这家仅2名正式员工的印度公司,在此期间股价竟暴涨550倍! 而过去两年间,英伟达股价涨幅超250%,可谓相形见绌。 印度AI第一妖股 过去20个月,这只股票如搭乘火箭般飙涨超过55,000%,创下连续149个交易日涨停的疯狂纪录,市值从235万元人民币飙升至17亿美元(约120亿元人民 币),增长超500倍。 过去几周,诡异的事件接连发生,几乎堪称荒诞喜剧。 实际上,RRP半导体根本没开展任何形式的半导体制造活动,也未申请任何相关政府项目。 自2024年初转型后,这家公司与半导体最大的关联可能是公司名。 RRP半导体是小盘股,但在18个月内股价飙涨63000%,尽管交易量微乎其微、财务状况模糊且并无实际芯片业务。 Rajendra Chodankar既是马哈拉施特拉邦政府和体育传奇明星Sachin Tendulkar投资的RRP电子公司的发起人,又恰好是RRP半导体的最大股东。 在收购并将「G.D. Trading and Agencies」贸易与中介公司更名为「RRP Semiconductor ...
AI热潮下,过早“看懂一切”本身就是风险
吴晓波频道· 2025-12-26 00:29
怎么看待AI泡沫 - 当前市场已普遍默认存在AI泡沫,并转而讨论其类型,有观点认为这是一个由股权和生产性因素引起的“好的泡沫”,通常不那么危险,但进入2025年第四季度后,数据中心引发的巨额债务加剧了业界对泡沫的担忧[3] - 与2000年互联网泡沫相比,当前情况不同:互联网泡沫顶峰时思科市盈率超过100倍,而当前英伟达的股价与其盈利能力相对匹配;2000年前后头部互联网公司市盈率高达89倍,而当前“Magnificent 7”加上博通最高市盈率仅约37倍,并非典型估值泡沫[4] - 资本开支与现金流状况更健康:互联网泡沫时期头部公司资本开支占自由现金流比例一度超过100%,而当前头部科技公司该比例平均约50%,现金流缓冲空间较大[4] - 泡沫通常经历形成、资产错配和崩溃三个阶段,真正易引发崩溃的是表外债务,因其会引发挤兑[4] - 当前外部变量比互联网泡沫时期更复杂:当时美联储在加息收紧流动性,而当前美联储处在降息周期,正在放水[4] - 基础设施折旧周期差异构成关键风险:铁路和光纤在泡沫破裂后能长期存在支撑增长,而当前数据中心和GPU折旧周期短得多,成本能否在短期内收回成为大问题[5] - 真正价值最确定的领域仍集中在英伟达和台积电等硬件端,应用层和模型层的核心问题在于,即便全球用户全面采用AI,其可计算的收入上限是否足以覆盖整个中间层的巨大投入[5] 对未来AI行业有何预测 - AI开源是长期可持续的趋势,模型研发的投入并未如最初想象般巨大,且开源的边际收益明显,能形成生态吸引开发者参与,形成正反馈循环,同时今天的开源并不等于放弃商业化,正以多种方式与商业化深度结合[6] - 行业未来将呈现“并购整合”与“百花齐放”并存的局面,并购已在发生,而在应用层面,细分方向的创新会越来越多,预计到2026年多点爆发的态势会更明显,中国厂商可能展现出更强竞争力[6] - 当前AI应用最大的商业化痛点在于产品留存和使用时长不理想,远未到稳定转化阶段,需通过不断迭代打磨,等待产品能力、技术水平和使用场景叠加到临界点才可能改善[7] - 2026年AI具体落地方向趋势包括:AI手机不再是边缘战场,将明显抬高行业竞争曲线,其作为新入口形态有潜力削弱微信、淘宝、抖音等现有平台壁垒,但会遭遇既有巨头抵触,相关博弈将更激进,最终可能需要政策或监管进一步明确[7] - AI与机器人结合(具身智能)非常看好,中国在硬件、制造、控制层面有积累,AI补上了“智能大脑”关键环节,具备现实土壤[8] - 多模态AI将进一步深化,尤其在图像和视频领域;AI硬件将更加丰富,从陪伴型玩具到智能眼镜都将成为竞争焦点;语音作为最自然的交互方式,可能在2026年迎来更广泛的AI应用落地[8] - 行业存在重演5G“预期很高、买单不足”的风险,核心议题在于用户需求的天花板是否足以覆盖当前庞大的数据中心投入[8] AI时代的个体该怎么办 - 需保持独立思考能力,警惕AI在提升效率的同时,会放大并固化人类社会原有的偏见,最令人担忧的不是AI不够聪明,而是人类过度依赖AI[11] - 使用AI的简单原则是:无关紧要的琐事和重复性任务可交给AI,重要的事一定要自己三思,因为AI会产生“幻觉”,例如可能虚构出完全符合预期的案例细节[11] - 普通人面临的风险主要在于当别人进步时自己原地踏步,而非被AI直接淘汰[12] - 建议积极学习并拥抱新的AI生产力工具,如ChatGPT、DeepSeek,AI实现了技术权威的去中心化,掌握与AI协作的技巧即可学习高端技能,同时可利用碎片化学习但需保持连贯性[12] - 在AI时代应学会主动“清理”记忆,将过时、可被机器快速替代的知识(如复杂公式)从大脑中腾出,以掌握最先进的工具,不断学习是防止被淘汰的关键[12] - 除了生成式AI和预测式AI,更应关注通用人工智能(AGI)的趋势,核心在于理解它将如何深刻改变社会结构和生活方式,例如用机器人陪伴解决老龄化社会的养老难题[13] - 应对职业焦虑的建议:首先缩小关注圈,聚焦AI对自己所在行业的影响;其次弄清楚AI如何冲击自身赖以生存的技能,并迅速用新工具完成自我迭代;在大模型时代,学会提出正确的问题将成为关键技能[13]
美国暂不对中国芯片加税,离岸人民币收复7关口 | 财经日日评
吴晓波频道· 2025-12-26 00:29
点击按钮▲立即预约 央行表示继续实施适度宽松的货币政策 12月24日消息,中国人民银行货币政策委员会召开2025年第四季度例会。会议提出,要继续实施适度宽松的货币政策,加大逆周期和跨周期调 节力度,更好发挥货币政策工具的总量和结构双重功能,加强货币财政政策协同配合,促进经济稳定增长和物价合理回升。 会议指出,建议发挥增量政策和存量政策集成效应,综合运用多种工具,加强货币政策调控,根据国内外经济金融形势和金融市场运行情况,把 握好政策实施的力度、节奏和时机。保持流动性充裕,使社会融资规模、货币供应量增长同经济增长、价格总水平预期目标相匹配,促进社会综 合融资成本低位运行。(央行官网) |点评| 从本次例会中看,央行未来货币政策实施的大方向没有改变,仍然是强调适度宽松,在具体方向上则略有改动。今年国内GDP增速保 持在5%左右的目标压力不大,即便四季度国内宏观经济回暖趋势略有放缓,央行仍然保持了战略定力。目前,国内利率已降至历史低位,央行 本次将"推动社会综合融资成本下降"改为"低位运行",未来或许会将工作重心放在畅通利率传导机制上,减少资金在金融系统内空转套利行 为。 近期,央行多次强调要推动物价水平合理回升, ...
美银:2026年芯片销售将破万亿美元 这六支股票将成投资首选
美股IPO· 2025-12-26 00:24
人工智能与半导体行业前景 - 人工智能热潮并未降温,而是处于一个长达十年转型的"中点",并将持续扩大 [1] - 全球半导体销售额预计将实现30%的同比增长,并在2026年推动行业突破1万亿美元的年度销售里程碑 [3] - 到2030年,AI数据中心系统的总可寻址市场将超过1.2万亿美元,年复合增长率达38% [3] - 仅AI加速器就代表着9000亿美元的市场机会 [3] 核心投资逻辑与选股标准 - 投资应聚焦于拥有"由利润率结构量化的护城河"的公司 [3] - 一个简化的投资策略是按毛利率排序,买入前五名的公司 [3] - 行业领导者通常占据70%到75%的市场份额,这是科技领域的常态 [7][8] - 通往1万亿美元里程碑的道路将"崎岖不平",没有股票是"无风险"的 [7] 英伟达 (NVDA.US) 分析 - 英伟达正运行在一个"不同的星系",不应与传统芯片制造商相提并论 [5] - 普通芯片售价约2.40美元,而一块英伟达GPU售价约3万美元 [5] - 公司股价今年以来上涨超过40% [5] - 预计未来三年自由现金流将达到5000亿美元 [5] - 经增长因素调整后估值"仍然非常便宜",市盈率增长比率(PEG)约为0.6倍 [6] 博通 (AVGO.US) 分析 - 博通股价今年以来上涨超过50%,市值达1.6万亿美元 [7] - 公司已从组件供应商转变为AI基础设施的支柱,被视为AI的"神经系统" [7] - 转型得益于为谷歌和Meta等超大规模公司提供定制专用集成电路(ASIC) [7] - 高盛给出450美元目标价,强调其在定制芯片领域的主导地位及与Anthropic、OpenAI扩大合作带来的上行空间 [7] 其他重点公司及行业动态 - 除了英伟达和博通,分析师还强调了Lam Research、科磊(KLAC.US)、亚德诺半导体(ADI.US)和铿腾电子(CDNS.US)作为2026年的首选 [3] - 大型科技公司对AI数据中心的投资既是"进攻性的也是防御性的",是保护其现有业务版图的必要之举 [4] - 一个典型的1吉瓦AI数据中心设施需要超过600亿美元的资本支出,其中约一半直接用于硬件 [3]
英伟达回应:未收购Groq,聘请了Groq人才加入英伟达;机构预计2030年全球生成式AI消费支出达6990亿美元丨AIGC日报
创业邦· 2025-12-26 00:08
全球生成式AI市场增长预测 - 预计全球生成式AI消费支出将从2023年的2250亿美元增长至2030年的6990亿美元,复合年增长率达21% [2] - AI对话平台是增长最快的板块,个人助理型AI和内容生成工具同样有望显著扩张 [2] - 到2030年,全球AI对话平台的月活跃用户数预计将突破50亿 [2] 英伟达与Groq的动态 - 英伟达否认以约200亿美元的价格收购AI芯片厂商Groq [2] - 英伟达获得了Groq知识产权的非独家授权,并从Groq团队中聘请了工程人才加入 [2] - 双方将共同致力于提供领先的加速计算技术 [2] 钉钉的AI市场战略 - 钉钉宣布基于Agent OS,全面开放算力、行业模型、MCP等AI能力,打造可变现的AI助理、AI硬件市场 [2] - 相比主流AI算力服务方案,钉钉具备5%-50%的成本优势 [2] - 钉钉建设了中国最大的企业级MCP能力广场 [2] 昇思AI框架发展状况 - 截至今年12月,昇思开源社区的核心共建开发者数量超过5.2万人 [2] - 社区代码服务量超过12万,开源版本累计下载量超过1300万,覆盖全球150多个国家和地区 [2] - 昇思是由华为推出的新一代开源全场景AI框架 [2]
太空算力成为多个海外科技巨头看好的赛道
金融界· 2025-12-25 23:50
行业趋势:太空算力从概念走向工程验证 - 太空算力正从概念验证走向可运行系统,标志着首次进入真实负载的工程阶段 [1] - 太空算力已具有商业价值潜力,相关项目已开始推进并具有一定方法论支撑,抢占先机是未来胜负手的关键 [1] - 国内方面,从三体计算星座到北京提出太空算力竞赛,表明太空算力正在进入以工程验证为导向的新阶段 [1] 公司动态:美国科技巨头布局太空数据中心 - 谷歌计划在2027年前发射两颗原型卫星,作为将数据中心搬上太空项目的第一步 [1] - 谷歌的芯片已通过太空辐射耐受性测试,可适应太空环境 [1] - SpaceX推出“GalaxyMind”计划,明确了产业分工路径:SpaceX负责运载与星舰通道,特斯拉提供太阳能与储能方案,xAI提供模型与算法支持 [1] 项目进展:太空算力节点已进入轨道运行 - Starcloud在获得NVIDIA投资后,已成功将搭载H100的算力节点送入轨道并开始运行 [1]
【招商电子】PCB 行业2026年投资策略:AI算力依旧是主旋律,把握产业链技术迭代和供求缺口
招商电子· 2025-12-25 23:47
文章核心观点 - 2025年,在AI需求驱动及大厂技术升级助推下,PCB板块取得显著超额收益,年初至今涨幅达149.9%,位居电子细分板块首位 [3][4] - 展望2026年,AI算力中心在大模型训练及推理需求推动下,部署规模和速度将进一步提升,AI PCB需求保持高速增长,供给紧张趋势延续,行业仍处于高景气周期 [3] - PCB/CCL行业兼具周期和成长属性,伴随业绩高增的可持续性,估值有向上突破空间,投资评级维持“推荐” [3] 2025年板块行情回顾 - 全年板块走势受AI算力需求、开源模型发布、中美关税战、新技术预期及业绩分化等多重因素影响,呈现宽幅震荡并最终上涨 [4] - 年初以来SW印制电路板板块上涨149.9%,在电子细分板块中排名第1,跑赢SW电子板块101.2个百分点,跑赢沪深300指数132.2个百分点 [4][22] - 截至2025年12月23日,PCB板块整体PE估值处于行业历史高位区间 [26] 景气度跟踪 下游终端需求 - 尽管手机及汽车等端侧需求2026年预计走弱,但AI算力建设推动服务器及交换机加速升级,需求保持旺盛 [5] - 2025年全球PCB市场规模预计为849亿美元,同比增长15.4%,其中AI相关领域(服务器、有线侧)占比提升至28.7% [6][32] - 北美主要云厂商对2026年AI资本支出(Capex)展望乐观,预计总额约5500亿美元,同比增长25%左右 [7][54] 产业链库存 - 中国台湾PCB月度CP值从2025年7月开始处于0.5以下,显示行业景气度较高后出现结构性调整 [5][34] - 中国大陆及台股PCB厂商2025年第三季度库存环比向上抬升,显示下游厂商加大备库,AI需求旺盛 [5][34] 产能利用率及扩产 - 国内头部PCB厂商2025年下半年整体产能利用率在93%-97%之间,进入第四季度景气度持续走高 [39] - 展望2026年,头部厂商多保持乐观,订单能见度普遍达3个月以上,并积极扩充IC载板、高多层板、高阶厚HDI板等高端产能 [6][40] - PCB行业资本开支从2024年下半年开始逐步扩大,2025年前三季度国内PCB厂商购建固定资产等支付的现金同比增长53.9% [41] 产品价格 - 上游铜价高位震荡上行,金价处于高位,铜箔加工费、玻纤布呈现涨价趋势,树脂价格相对平稳 [6][44] - 2025年下半年CCL价格涨势明确,受原材料涨价推动,头部厂商密集提价;AI高端HDI、高多层板及载板需求旺盛,价格看涨 [45] PCB整体景气度 - 2025年1-11月,台股PCB行业累计收入同比增长12.8% [47] - Prismark预计2025年第四季度全球PCB市场规模同比增速将提升,2026年全球PCB市场规模预计将增长至940-980亿美元 [6][49] PCB细分领域分析 算力PCB - AI数据中心是PCB增长最快、最大的下游应用领域,Prismark预计2024-2029年服务器用PCB市场复合年增长率(CAGR)达18.7%,至257亿美元 [7][51] - AI服务器持续迭代推动PCB向高阶HDI方向加速升级,Prismark预计AI/HPC服务器HDI市场规模2024-2029年CAGR高达30%,至47亿美元 [7] - 粗略估算,国内上市公司中能匹配AI需求的PCB有效产能供给约1200亿元,而需求端预计在1500亿元左右,供给紧张 [7] - 英伟达Rubin架构采用无缆化设计,大幅提升柜内PCB需求及价值量,材料向M8+/M9加速升级 [59][61] - 谷歌TPU、AWS Trainium等ASIC芯片以及国内华为昇腾、寒武纪等算力芯片厂商快速发展,驱动全球AI PCB需求高速增长 [7][68][74] 端侧PCB - 消费终端AI化及折叠屏、AI眼镜等新型态终端推出,将带动终端PCB升级和价值量提升,关注2026年苹果、OpenAI等新品创新 [8] - 2026年汽车市场增速预计放缓,但智能化升级将带动汽车PCB价值量提升 [8] 载板 - AI算力芯片和存储需求向上带动行业明显回暖,全球载板产能稼动率快速提升 [8] - 上游Low-CTE玻布材料供给紧缺,供需缺口下将推动载板价格持续走高,国内高端ABF载板厂商迎来切入核心客户供应链的窗口期 [8] 材料及设备 覆铜板 - AI高速运算场景推动高速CCL升级节奏加速,预计2026年M8为主流板材,M9进入量产;2027年M9成为主流板材 [9] - 预计2026年高速CCL市场规模约80亿美元,2024-2027年需求CAGR达40% [9] - “涨价”成为CCL行业2025-2026年主旋律,上游原材料价格上涨、下游AI需求挤占产能及PCB环节库存低等因素驱动CCL处于涨价通道 [9] - 目前高速CCL市场份额主要集中在台系和日韩厂商,国内厂商如生益科技、南亚新材已在算力供应链取得突破并开始放量 [9] 上游主材 - CCL上游主材(铜箔、树脂、玻纤布)成本占比分别约为42%、26%、20% [10] - AI需求推动CCL向M8、M9等级升级,带动高端主材需求放量 [10] - 玻纤布:一代、二代布为当下主流高端材料,Q布放量在即,缺口严重 [10] - 电子铜箔:AI需求推动HVLP铜箔加速升级,需求快速增长 [10] - 树脂:M8+、M9等级CCL升级有望推动碳氢树脂需求放量 [10] 设备 - AI PCB加速扩产升级,高端设备需求旺盛推动国产厂商份额快速提升 [11] - 钻孔领域,高阶HDI、高多层板升级带动机械和激光钻孔设备需求,大族数控在该领域卡位,超快激光设备迎突破 [11] - 钻针环节量价齐升,鼎泰高科受益于PCB钻针需求增长及M9新材料钻针项目进展 [11] 2026年行业投资策略 - 算力板块仍是2026年Beta最强的主线之一,AI持续推动对高多层及高阶HDI的需求 [12] - 从产业链环节对比分析,上游CCL及原材料环节具备量价齐升趋势,且国内公司有全球份额扩张的Alpha,应为首选 [12] - AI PCB环节,在供需缺口背景下,应把握具备产能规模优势、客户资源、技术卡位的头部厂商及有望在海外供应链实现“0-1”突破的厂商 [12] - 设备环节,下游PCB厂商的持续扩产升级是增长驱动力,看好国内设备厂商在此轮AI驱动的产能升级下实现弯道超车 [12]