Workflow
英伟达H100芯片
icon
搜索文档
英伟达否认H100/H200芯片短缺传闻,可满足所有订单需求
凤凰网· 2025-09-03 00:39
公司声明 - 公司否认H100/H200供应受限及售罄传言 称拥有足够库存可实时满足所有订单需求 [1] - 公司表示H20销售对H100/H200及Blackwell等其他产品供应无任何影响 [1] 产品技术规格 - H200芯片于2023年11月13日发布 与前代H100保持硬件兼容性 [1] - 芯片采用先进制程工艺 配备HBM高带宽内存架构 存储容量实现翻倍提升 [1] - 大语言模型推理速度较前代最高提升近2倍 [1] - 低功耗特性可满足千亿参数规模AI模型训练需求 [1] 行业应用 - 产品被业界视为推动自然语言处理和智能语音技术发展的核心硬件 [1]
耗资数十亿美元后,马斯克向英伟达投诚
特斯拉Dojo项目终止 - 特斯拉终止了耗资超过10亿美元的Dojo超级计算机项目,该项目曾被视为实现完全自动驾驶(FSD)的核心技术 [6][10][12] - Dojo项目始于2019年,采用自研D1芯片架构,旨在通过超算能力解决自动驾驶长尾场景问题 [10] - 项目终止后,特斯拉转向采购英伟达芯片,计划将H100芯片数量从3.5万块增至2025年底的8.5万块 [13] 垂直整合策略的局限性 - 特斯拉过往通过垂直整合策略在充电网络、电池生产等领域取得成功,但Dojo项目成为该战略的首次重大失败 [15] - Dojo芯片采用激进架构设计,舍弃传统内存方案,导致面临散热、功耗和系统稳定性等工程难题 [16] - 项目投入超10亿美元后仍未能达到预期性能目标,最终被评估为"未能兑现炒作" [16] AI芯片行业竞争格局 - 英伟达凭借CUDA生态构建了难以逾越的竞争壁垒,其解决方案覆盖从H100到Blackwell平台的完整技术栈 [17][22] - CUDA生态经过20年发展已成为AI开发领域的事实标准,类比Windows操作系统地位 [23] - 英国AI芯片公司Graphcore融资超7亿美元仍失败,印证了挑战CUDA生态的难度 [27] 行业趋势转变 - AI竞争进入平台化、生态化阶段,单点技术突破让位于全面系统对抗 [21][27] - 特斯拉战略转向聚焦算法与模型优化,将基础设施外包给专业厂商 [27] - 行业呈现强者愈强格局,全球科技公司普遍选择英伟达作为AI算力基础 [18][30] 战略调整评估 - 终止Dojo被视为特斯拉从理想主义向现实主义的战略转变 [28] - 资源重新配置有利于特斯拉集中优势于自动驾驶算法开发 [27] - 采用英伟达方案可能加速FSD技术商业化进程 [31]
造芯神话破灭,马斯克向英伟达投诚
36氪· 2025-08-19 09:42
项目终止与战略转向 - 特斯拉正式关停Dojo超级计算机项目 该项目曾耗资超过10亿美元[1][4] - 项目团队解散 转向采购英伟达AI芯片 计划投入数十亿美元将H100芯片数量从3.5万块增至8.5万块[6] 技术挑战与性能瓶颈 - Dojo采用激进芯片架构设计 舍弃传统内存结构 导致面临散热、功耗及系统稳定性重大挑战[8] - 项目未能达成预期性能目标 投入产出比不及预期 被评价为"未兑现炒作"[8] 行业生态竞争格局 - 英伟达凭借CUDA软件生态构建近二十年壁垒 形成类似Windows操作系统的开发者生态垄断[9][11] - AI芯片独角兽Graphcore融资超7亿美元仍失败 印证挑战CUDA生态的极高难度[13] 企业战略重新定位 - 垂直整合模式在AI训练芯片领域遭遇瓶颈 专业外包成为更高效选择[6][13] - 战略重心转向核心优势领域 包括神经网络算法、数据处理及模型优化[13] - 从全栈自研转向平台化合作 体现对AI竞争已进入生态化对抗阶段的认知升级[13] 技术发展路径演变 - 2019年启动Dojo项目 旨在专攻自动驾驶模型训练 采用自研D1芯片[4] - 最终选择行业标准硬件方案 算力基础设施将完全基于英伟达平台[15][16]
英伟达的“狙击者”
搜狐财经· 2025-08-18 16:22
AI推理芯片市场爆发 - AI推理芯片市场2023年规模为158亿美元,预计2030年将达到906亿美元,呈现爆发式增长[6] - 推理成本在18个月内从每百万token 20美元暴跌至0.07美元,下降280倍[6] - 企业AI硬件成本每年下降30%,能源效率每年提高40%[6] 训练与推理的差异 - 训练是AI系统的"启蒙教育"阶段,成本高昂且耗时漫长,具有一次性特征[4] - 推理是AI技术的"实战应用"环节,将训练好的模型知识转化为实际生产力[4] - 生成式AI时代技术架构变革使基础模型训练趋向稳定,推理成为持续创造价值的关键[5] 推理市场的商业价值 - AI推理工厂平均利润率普遍突破50%,英伟达GB200利润率高达77.6%[8] - 推理阶段是AI产业的"现金印钞机",通过向用户收取推理服务费实现盈利[6] - 英伟达数据中心40%的收入源自推理业务[6] 科技巨头布局推理市场 - AWS向客户推销自研推理芯片Trainium,并提供25%折扣[10] - OpenAI通过租用谷歌TPU降低推理成本和对英伟达的依赖[11] - 亚马逊向Anthropic投资40亿美元,后者使用AWS的推理芯片服务[11] 初创公司挑战英伟达 - Rivos寻求4-5亿美元融资,成立以来融资总额将超8.7亿美元[3] - 25家AI芯片初创公司共筹集超70亿美元,总估值达290亿美元[13] - Groq累计融资超10亿美元,与沙特达成15亿美元芯片合作协议[13] 技术差异化路径 - 初创公司聚焦AI专用芯片(ASIC)研发,以更低成本实现高效运算[12] - Rivos开发软件可将英伟达CUDA代码翻译成其芯片语言[12] - Groq开发独特语言处理单元架构,号称提供"世界最快推理"性能[13] 边缘推理市场机会 - 智能家居和穿戴设备催生海量边缘推理场景[14] - 小型分散的推理需求在英伟达视线未及的角落悄然爆发[14] - 新型算法架构与专用芯片结合正在诞生[14]
英伟达的“狙击者”
虎嗅APP· 2025-08-18 09:47
AI推理市场爆发式增长 - AI推理芯片市场规模2023年为158亿美元,预计2030年将达到906亿美元[7] - 推理成本在18个月内从每百万token 20美元降至0.07美元,下降280倍[7] - 企业AI硬件成本每年下降30%,能源效率每年提高40%[7] - 英伟达数据中心40%收入来自推理业务[7] 训练与推理的商业价值差异 - 训练阶段是高成本、高风险、长周期的"资本赌局"[6] - 推理阶段是持续创造价值的"现金印钞机"[6] - 生成式AI时代基础模型训练趋向稳定,推理成为主要价值创造环节[6] - 推理需求与商业收入形成良性循环,推动技术迭代升级[7] 科技巨头在推理市场的布局 - AWS向客户推销自研推理芯片Trainium,并提供25%折扣[12] - OpenAI通过租用谷歌TPU降低推理成本和对英伟达依赖[13] - 亚马逊向Anthropic投资40亿美元,后者使用AWS推理芯片[12] - 科技巨头平均利润率普遍突破50%,英伟达GB200利润率达77.6%[10] 初创公司的差异化竞争策略 - Rivos正在寻求4-5亿美元融资,累计融资将超8.7亿美元[4] - 25家AI芯片初创公司共融资超70亿美元,总估值290亿美元[17] - Groq累计融资超10亿美元,与沙特达成15亿美元芯片协议[17] - 初创公司聚焦ASIC芯片研发,在特定推理任务中具有性能优势[16] 技术架构与市场格局变化 - Transformer架构使基础模型训练趋向稳定[6] - MOE架构只需局部训练新信息,推动推理市场爆发[7] - 边缘侧小型分散推理需求正在爆发[18] - 推理对CUDA生态依赖较小,可使用多样化硬件平台[11]
这些公司想在这里“狙击”英伟达
虎嗅· 2025-08-18 06:22
AI推理市场爆发增长 - AI推理芯片市场2023年规模158亿美元 预计2030年达906亿美元 年复合增长率显著[3] - AI推理成本在18个月内从每百万token 20美元降至0.07美元 降幅达280倍[3] - 企业AI硬件成本每年下降30% 能源效率每年提升40%[3] 训练与推理特性对比 - 训练阶段成本高昂且周期长 需强大算力支撑 具有一次性特征[2] - 推理阶段是AI技术实战环节 负责将训练模型转化为实际生产力[2] - 生成式AI时代基础模型训练趋向稳定 推理成为持续创造价值的关键环节[2] 推理市场商业价值 - AI推理工厂平均利润率普遍突破50% 英伟达GB200方案利润率达77.6%[5] - 英伟达数据中心40%收入源自推理业务[3] - 推理服务通过向用户收取服务费实现盈利 形成商业收入良性循环[3] 技术变革驱动因素 - Transformer架构使基础模型训练固化 降低重复训练成本[2] - 算法优化技术(量化/稀疏化/蒸馏)降低模型计算复杂度和内存需求[4] - MOE架构出现使新信息只需局部训练 推动推理市场爆发[4] 竞争格局变化 - 科技巨头通过自研芯片降低对英伟达依赖 AWS向客户提供自研推理芯片并给予25%折扣[6] - OpenAI租用谷歌TPU降低推理成本及对英伟达依赖[8] - 推理对CUDA生态依赖较小 可使用CPU/边缘设备/WebGPU等多样化平台[6] 初创公司突围策略 - 25家AI芯片初创公司累计融资超70亿美元 总估值达290亿美元[10] - Rivos开发翻译软件将CUDA代码转换为自有芯片语言 降低用户迁移成本[9] - Groq开发专用语言处理单元 提供远低于GPU的token处理成本解决方案[10] 细分市场机会 - 边缘侧推理需求爆发 智能家居与穿戴设备催生海量应用场景[11] - 中东等英伟达渗透率较低市场存在发展机遇 Groq与沙特达成15亿美元芯片合作[10] - 专用芯片(ASIC)在特定推理任务中展现卓越性能优势[9] 行业技术路线争议 - Scaling Law技术路线是否通向通用人工智能存在争议 Meta首席科学家质疑其局限性[12] - 英伟达依靠"算力越大越好"的暴力美学兜售GPU 但技术路径可持续性存疑[12]
最新!美国政府被曝在出货时偷装追踪器,防止AI芯片转运到中国,戴尔、超微等公司可能已知情
每日经济新闻· 2025-08-15 00:56
美国政府AI芯片监控措施 - 美国政府在部分含AI芯片的科技产品货运中植入秘密追踪器以监控可能转运至中国的产品[1] - 追踪器安装有时仅需行政部门批准 戴尔和超微等服务器销售公司可能已知情但未回应询问[5] - 目前尚未对单个芯片实施追踪 芯片级监控需嵌入信号软件 技术更复杂[10] 芯片级后门技术实现方式 - 硬件后门通过芯片设计或制造时植入物理电路实现 软件后门通过植入指令实现破坏或窃密[22][24] - 英伟达H20芯片可通过电源管理模块植入远程关闭电路 触发条件包括激活时间或物理指标达标[25] - 通过修改固件引导程序可实现启动时检查地理位置或授权状态 拒绝启动或限制性能[26] - 利用CUDA生态系统软件更新环节可激活后门 实现追踪定位、文件收集、击键记录等功能[27] 片上治理机制功能设计 - 许可锁定功能可在违规时停止签发许可证 导致芯片因无法更新而失效[13][31] - 追踪定位通过芯片与地标服务器交互响应速度反映位置 限制特定区域运行[13][31] - 使用监测通过内置硬件记录芯片状态、训练任务、计算量等关键信息[13][31] - 使用限制功能禁止芯片在大型集群或超算中使用 仅允许运行批准代码或模型[14][31] 企业合作与出口管制策略 - 美国通过预先市场承诺激励企业配合 若满足后门要求可放宽对中国低风险客户出口[34] - AMD、苹果、英特尔和英伟达等企业芯片已广泛部署片上治理所需功能但部分未激活[33] - 美国利用产业链优势协调盟友确保芯片内置硬件控制功能[34] 英伟达H20芯片性能缺陷 - H20整体算力仅为H100的20% GPU核心数量减少41% 性能降低28%[36] - 能效比约为0.37TFLOPS/W 低于中国要求的0.5TFLOPS/W节能水平标准[37] - 无法满足万亿级大模型训练需求[36] 历史与政策背景 - 美国曾于1990年代在Clipper芯片中植入加密后门 项目三年后终止但策略转为隐蔽执行[17] - 2024年5月美国众议员提出法案要求受管制芯片强制加入后门 强调技术已成熟[18][19][21] - 国家网信办就H20漏洞后门问题约谈英伟达 要求提交安全风险说明材料[15]
AI带来的液冷投资机会
2025-08-14 14:48
行业与公司 - 行业:液冷技术(数据中心、新能源汽车动力电池、充电桩、AI PC)[1][6][7] - 公司:英伟达(B200/B300/GB200/Rubin系列芯片)、Vertiv(CDU产品)、国产厂商(电路板、快接头、CDU等领域)[1][3][19][23][25] --- 核心观点与论据 **1 液冷技术成为主流散热方案** - 英伟达B200/B300芯片TDP达1,200-1,400瓦,远超风冷散热上限(700瓦)[1][2][5] - GB200的ML72机柜TDP达120-130千瓦,液冷PUE指标更低(1.05-1.15 vs 风冷1.3-1.5)[1][2][11] - 全球数据中心单机柜平均功率密度:2023年20.5千瓦 → 2029年预计超50千瓦,英伟达Rubin芯片将推动GPU功率超一兆瓦[8] **2 液冷技术应用与市场增长** - **数据中心液冷方案**:冷板式(65%份额)、浸没式(34%)、喷淋式(1%)[1][4][12] - 2024年中国液冷服务器市场规模201亿元(+84.4%),2025年预计达300亿元[1][4] - **其他领域应用**:新能源汽车动力电池、充电桩、AI PC(高功率密度散热需求)[6][7] **3 液冷技术优势** - **空间利用率**:GP200NV 272机柜八卡方案高度仅2U,节省80%空间[3][11] - **散热效率**:冷板式可散掉70%-75%热量(需混合风冷补充)[3][11] - **节能环保**:PUE指标显著低于风冷(1.05-1.15 vs 1.3-1.5)[1][2] **4 液冷技术核心零部件与价值量** - **V272机柜液冷零部件价值量**:8.4万美元(液冷板占43%、CDU占35.8%)[3][22] - **关键组件**:液冷板(铜质为主)、快接头(UQD)、CDU、机柜管路(manifold)[16][17] - **CDU分类**:机柜内CDU(降温功率80千瓦) vs 独立机架外CDU(800-2,000千瓦)[19] --- 其他重要内容 **1 技术发展趋势** - 英伟达从H100(风冷)→B200/B300(液冷)过渡,机柜功率密度从40千瓦→120-130千瓦[5][9] - GB200机柜设计采用n+1冗余CDU(如Vertiv 1,350千瓦CDU支持8个130千瓦机柜)[23] **2 国产厂商机会** - 关注已获北美认证或订单的厂商(电路板、快接头、CDU代工)[25] - 送样测试阶段厂商(电能板、manifold连接器)兼具稳定性与增长性[25] **3 市场转折点** - 2024年3月英伟达GPU200液冷方案提出后需求激增,2025年GB200/GP300出货推动液冷渗透[24] - 北美Vertiv业绩超预期,台系厂商AVC 2025年7月收入同比+92%[24] --- 数据与单位换算 - 1,200-1,400瓦(B200/B300 TDP)[1] - 120-130千瓦(GB200机柜TDP)[1] - 201亿元 → 300亿元(2024-2025年中国液冷服务器市场规模)[1][4] - 8.4万美元(V272机柜液冷零部件价值量)[3][22]
中国AI破局
36氪· 2025-08-13 00:03
文章核心观点 - 人工智能发展面临数据枯竭、算力成本限制、算法偏见、能源消耗和安全治理等主要技术困境 [1][7] - 中国通过开源开放、算法创新和产业应用突破AI发展瓶颈 改写全球AI竞争规则 [2][24][69] - 中国在AI芯片、光子量子计算、自动驾驶和人形机器人等应用领域形成核心竞争力 [35][51][55] 当前人工智能发展所面临的主要技术困境 生成式大模型的算法偏见与困境 - GPT-5上线后被吐槽反应速度慢、处理问题频繁出错 [10] - 生成式AI存在系统幻觉现象、逻辑推理能力有限、数据依赖性、偏见与缺乏可解释性等缺陷 [10] - 第三方测试显示GPT-5领先优势微乎其微 大模型边际收益递减趋势明显 [1] AI算力增长的能源消耗问题 - 英伟达H100芯片单片功耗峰值达700W 10万块总功耗接近小型发电厂输出功率 [11] - AI系统需要执行大量矩阵运算和密集型计算任务 依赖高性能计算机和GPU支持 [11] - "星际之门"计划若采用现有高端AI芯片 年耗电量将是上海市全年用电总量的三倍 [49] 大模型训练数据枯竭 - 数据作为AI的"化石燃料"正日益枯竭 将迫使改变当前AI大模型的预训练方式 [12] - 高质量训练数据几近枯竭 成为AI发展的核心瓶颈之一 [1] 人工智能安全管理与风险控制 - AI技术面临科林格里奇困境 早期难以实施有效控制 技术深入社会后改变成本显著增加 [15][16] - AI指数级发展带来模型能力快速扩张 但社会伦理风险愈发难以预测和控制 [16] AI系统开发软件开源争议 - 开源软件基于GPL规则存在多种收费模式 包括分发收费、担保条款收费、商标许可费和技术服务费等 [20][21] - AI软件代码开放被认为是历史发展的必经之路 虽然存在波折但大势所趋 [20] 中国的优势、贡献和挑战 算法创新与开源开放 - DeepSeek-V3采用MoE架构+MLA机制 训练成本低于600万美元 实现高性能低成本 [24][25] - 阿里通义千问Qwen3-Coder性能强于所有开源模型 实际体验不输Claude和GPT4.1等闭源模型 [24][32] - 中国开源模型推动全球AI普惠 将"大力出奇迹"变为"巧力出奇迹" [24] 芯片自主与算力突破 - 华为昇腾910采用7nm工艺 提供256 TFLOPS的FP16计算能力 [35] - 寒武纪推出思元290和370高性能AI芯片 配套云端智能加速卡和训练整机 [36] - 中国成熟制程芯片(28nm及以上)占据75%以上应用市场 形成稳固本土产业链 [38] - 光子芯片利用光速传输信号 运算效率远高于现有AI芯片 功耗极低 [41] - 量子芯片在量子纠错技术取得突破 谷歌Willow芯片5分钟完成超级计算机1025年计算任务 [43] 产业应用与场景落地 - 中国电动汽车产销量连续八年全球领先 促进自动驾驶技术发展 [53] - 人形机器人产业链相关企业达6.7万家 国家级专精特新企业1051家 [55] - AI智能体具备多模态理解处理能力 在工业制造、物流配送等领域发挥重要作用 [57][58] - 中国生成式AI企业超4500家 核心产业规模达6000亿元 用户数2.3亿人次占总人口16.4% [66] 全球治理与合作 - 中国提交《关于加强人工智能伦理治理的立场文件》和《全球人工智能治理倡议》 [67] - 联合国通过中国提出的"加强人工智能能力建设国际合作"决议 143个会员国联署 [67] - 中国颁布《生成式人工智能服务管理暂行办法》促进AI健康发展与规范应用 [66]
突发!2 华人在美被捕,涉嫌走私 GPU ......
是说芯语· 2025-08-06 23:31
事件概述 - 两名中国公民耿川和杨世薇因涉嫌非法向某国出口价值数千万美元的AI芯片在加州被捕 [1] - 涉案公司ALX Solutions成立于2022年 总部位于埃尔蒙特 在美国实施对某国技术出口管制后成立 [3] 非法出口行为 - 2022年10月至2025年7月期间 通过新加坡和马来西亚的货运代理公司非法出口先进芯片 [3] - 2024年1月收到某国公司100万美元付款 付款来源异常 [3] - 2023年8月至2024年7月从Super Micro Computer购买200多块英伟达H100芯片 谎称客户在新加坡和日本 [4] - 在一张28453855美元的发票上虚报客户在新加坡 但标注地址不存在该公司 [4] - 除H100外 还非法运送PNY GE Force RTX 4090显卡 [4] 涉案芯片 - 主要涉及英伟达H100 AI芯片 [1][4] - 同时涉及PNY GE Force RTX 4090显卡 [4] 司法进展 - 两名被告在洛杉矶美国地方法院出庭 [5] - 耿川以25万美元保释金获释 [6] - 杨世薇因签证逾期滞留 将接受拘留听证会 [7]