Workflow
AI芯片
icon
搜索文档
英伟达回应谷歌芯片威胁
第一财经资讯· 2025-11-25 23:54
公司回应与市场地位 - 英伟达罕见回应市场对其AI芯片主导地位受威胁的担忧 [1] - 公司称其GPU"仍领先行业一代" [1] - 公司GPU可支持所有AI模型并覆盖多场景计算 [1] - 英伟达是目前唯一具备通用平台能力的厂商 [1] - 公司强调将持续深化与多家科技巨头的合作 [1] 潜在竞争威胁 - 重要大客户Meta正考虑在未来数据中心采用谷歌自研TPU [1] - Meta可能从明年起租用谷歌云芯片资源 [1] - 谷歌TPU被推销为英伟达GPU的"成本更优替代品" [1] - 此情况引发投资者忧虑,可能削弱英伟达在AI基础设施中的统治地位 [1]
摩尔线程上市,市值会复制寒武纪10倍神话吗?
搜狐财经· 2025-11-25 17:15
IPO发行与市场热度 - 发行价定为114.28元/股,成为年内最贵新股,募资总额80亿元 [1] - 网下申购倍数高达1571倍,267家机构管理的7555个配售对象提交了有效报价 [1] - 网上发行有效申购户数达482.7万户,初步中签率低至0.024% [1] - 按发行价计算,公司上市市值约537亿元,比IPO前估值翻了近一倍 [1] 公司技术与产品 - 公司选择全功能GPU路线,自主研发MUSA架构,覆盖图形与AI双领域 [3] - 从2021年到2024年,公司先后发布四代GPU芯片,其MTT S5000产品FP32 Vector达到32T,性能高于英伟达A100但低于H100 [3] - 核心团队具有浓厚英伟达基因,创始人及三位联合创始人均曾在英伟达长期任职 [3] 财务表现 - 营收呈现爆发式增长,从2022年0.46亿元增长至2024年4.38亿元,年均复合增长率达208.44% [5] - 2025年上半年营收已达7.02亿元,超过过去三年总和,管理层预测2025年全年收入可能冲击12.18亿至14.98亿元 [5] - 公司持续亏损,2022年至2024年归母净利润分别为-18.4亿元、-16.73亿元、-14.92亿元,2025年上半年继续亏损7.24亿元 [5][6] - 2022年以来累计研发投入已超过46亿元 [6] 行业竞争与市场格局 - 2024年中国GPU市场规模达1073亿元,同比增长约32.78% [14] - 在AI芯片细分市场,英伟达销量占比高达70%,华为昇腾占23%,包括寒武纪、摩尔线程等其他国产厂商合计市场份额仅为7%左右 [14] - 英伟达2024年研发投入高达129亿美元(约926亿元人民币),超过所有中国AI芯片企业研发投入总和 [14] 市场机遇与挑战 - 中国GPU市场规模预计将从2024年1425.37亿元激增至2029年13367.92亿元,年均复合增长率53.7% [16] - 数据中心GPU产品市场规模预计从2024年687.22亿元增长至2029年6639.16亿元,年均复合增长率55.7% [16] - 生态建设是主要挑战,英伟达CUDA生态在行业内处于垄断地位,公司推出MUSA架构试图兼容现有生态并吸引开发者 [12] - 公司与寒武纪技术路线不同,摩尔线程走全功能GPU通用平台路线,寒武纪则专注于ASIC定制化芯片 [9]
华为百度接连“秀肌肉” 大厂自研AI芯片为何不再闷声?
南方都市报· 2025-11-25 15:04
行业战略转变 - 国产AI芯片公司过去几年保持低调,官网很少更新最新产品信息和参数 [1] - 近期华为、百度等大厂接连公开AI芯片迭代路线图,阿里平头哥芯片亮相央视,标志着行业从“闷声做事”转向高调沟通 [1] - 这一转变是“里程碑式的转折”,公司需要向客户呈现清晰产品路线图以抢占英伟达留下的市场,并让投资者看到依赖国产算力发展的可能性 [2] 华为昇腾芯片路线图 - 华为宣布2026至2028年将推出四款昇腾AI芯片:950系列(950PR、950DT)、960和970 [4] - 950系列采用P/D分离路线:950PR于2026年Q1推出,面向推理预填充阶段和推荐业务,内存容量128GB,内存访问带宽1.6TB/s,互联带宽2TB/s;950DT于2026年Q4推出,注重推理解码和训练场景,内存容量144GB,内存访问带宽4TB/s,互联带宽2TB/s [7][8] - 960芯片于2027年Q4推出,互联带宽2.2TB/s;970芯片于2028年Q4推出,互联带宽4TB/s [5] - 华为Atlas 950超节点于2026年Q4推出,基于8192张950DT芯片;Atlas 960超节点于2027年Q4推出,最大支持15488张昇腾960芯片 [9] - 华为发布Atlas 950和960 SuperCluster超节点集群,算力规模分别超过50万卡和达到百万卡 [9] 百度昆仑芯路线图 - 百度公布昆仑芯业务路线图:2026年初上市针对大规模推理场景的M100芯片;2027年初上市面向超大规模多模态模型训练和推理的M300芯片 [11] - 2026年上半年和下半年推出“天池256超节点”和“天池512超节点”,搭载昆仑芯P800芯片,最高支持256张卡和512张卡互联 [11] - 从2027年下半年开始陆续推出千卡和四千卡超节点,计划2029年上市新一代N系列芯片,2030年点亮百万卡单集群 [11] - 基于昆仑芯P800的64卡超节点,单卡功耗约400瓦,FP16精度总算力规模超20 PFlops,单卡算力约为英伟达A100 SXM版本的一半 [11] 技术竞争格局 - 国产AI芯片在工艺制程、单卡算力、单卡内存容量和带宽等维度均落后于英伟达,但可借助超节点组网实现性能超越 [3] - 华为采用“超节点+集群”方案应对AI算力需求,这是“用数学补物理”策略,规避芯片制造工艺限制 [3][14] - 华为Atlas 950超节点满配由160个机柜组成,占地面积1000平方米,使用自研“灵衢”互联协议 [15] - 华为CloudMatrix 384超节点搭载384颗昇腾910C芯片,芯片数量是英伟达NVL72系统的五倍,可弥补单芯片性能仅为英伟达GB200三分之一的不足,但功耗为NVL72系统的4.1倍 [16] 市场应用与挑战 - 国产AI芯片用于大模型训练难度高,华为昇腾几乎是唯一可用于大模型训练的芯片,但当前主打型号910C大部分应用仍是推理 [19] - 使用全国产算力训练模型代价更高,不仅芯片使用成本高,训练时间也更长,例如科大讯花额外两个月进行适配 [20] - 2025年上半年中国GenAI IaaS服务市场中,推理场景占比上升至42%,训练场景占比降至58% [20] - 国产推理芯片已可满足当前最先进模型的使用,一台8张卡的单机能提供约688G显存,可运行DeepSeek R1-671B等600G权重的模型 [21] - 推理芯片市场竞争碎片化,包括GPGPU玩家(如海光信息、沐曦)和ASIC厂商(如寒武纪、华为、阿里平头哥) [21]
大模型、AI芯片齐开花 谷歌市值涨10万亿威胁英伟达霸主地位
凤凰网· 2025-11-25 12:50
公司股价与市值表现 - Alphabet股价自去年10月中旬以来累计上涨35%,市值增加近1万亿美元 [1] - Alphabet市值今年以来累计增长逾1.5万亿美元(约合10.65万亿元人民币) [1] - Alphabet当前市值与英伟达的4.4万亿美元相差约5900亿美元 [1] - Alphabet股价周二盘前交易时段一度上涨3.5%,有望连续第三个交易日上涨 [2] - 英伟达股价下跌3.5%,竞争对手AMD股价下跌3% [2] AI技术进展与市场影响 - 谷歌自研AI芯片取得进展,展现出能够与英伟达最畅销AI加速器竞争的实力 [1] - 谷歌最新Gemini 3大模型备受好评,其AI芯片也展现出市场需求 [1] - 谷歌与Meta磋商计划,Meta可能在2027年数据中心使用谷歌张量处理单元(TPU),并可能在明年向谷歌云服务部门租用芯片 [2] - 谷歌与Meta的协议将有助于确立TPU作为英伟达芯片替代选择的地位 [2] 行业竞争格局变化 - 投资者正在重新评估科技行业格局以及股市领头羊可能发生的变化 [1] - 市场共识发生变化,不再认为英伟达是数据中心建设的唯一芯片供应商 [2] - 英伟达芯片目前被视为Meta、OpenAI等科技巨头和创业公司开发运行AI模型的黄金标准 [2]
长电科技(600584):季度营收历史新高,先进封装加速落地
东方证券· 2025-11-25 12:35
投资评级 - 报告对长电科技的投资评级为“买入”,并予以“维持” [1] - 目标价格为45.12元,相较2025年11月24日35.05元的股价存在约28.7%的上涨空间 [1][4] 核心观点 - 公司2025年第三季度单季营收达100.6亿元,创历史同期新高,同比增长6% [8] - 2025年第三季度归母净利润为4.8亿元,同比增长5.7%,环比大幅增长81% [8] - 公司正处于先进封装下游逐步放量的关键窗口期,光电共封装(CPO)等先进封装进展被市场低估,预计随着2026年新建产能全面达产,盈利将迎来持续修复 [8] 盈利预测与估值 - 预测公司2025-2027年归母净利润分别为17.2亿元、22.2亿元、27.0亿元 [4][9] - 盈利预测较此前有所调整,原2025-2026年归母净利润预测分别为29.5亿元、36.7亿元,主要调整了费用率和业务毛利率 [4] - 基于可比公司2025年47倍市盈率进行估值,得出目标价45.12元 [4][10] 财务表现与预测 - 2025年前三季度累计营收286.7亿元,同比增长15%;前三季度归母净利润9.5亿元,同比下滑11% [8] - 预测营业收入将从2024年的359.62亿元增长至2027年的501.36亿元,年均复合增长率约11.7% [6] - 毛利率预计从2024年的13.1%提升至2027年的14.6%;净资产收益率(ROE)预计从2024年的6.0%提升至2027年的8.4% [6] 业务运营亮点 - 产品结构优化动能强劲,2025年第三季度单季毛利率达14.25%,同比提升2.02个百分点 [8] - 2025年前三季度,运算电子、工业及医疗电子、汽车电子业务收入同比分别显著增长70%、41%和31%,合计贡献超六成营收 [8] - 公司整体产能利用率持续提升,晶圆级封装、功率器件封装及电源管理芯片封装等产线接近满产 [8] - 研发投入持续加大,2025年前三季度研发费用达15.4亿元,同比增长25% [8] 产能建设与技术进步 - 公司正努力加速向先进封装转型,长电汽车芯片成品制造封测项目预计2025年底前通线生产 [8] - 光电共封装(CPO)解决方案已在光引擎封装、热管理等环节与多家客户开展工程化合作,瞄准AI数据中心与高速通信场景 [8] - 新建产能如临港汽车电子工厂、长电微电子晶圆级项目尚处于导入与爬坡期,折旧与研发费用高企对短期盈利有所拖累 [8]
谷歌训出Gemini 3的TPU,已成老黄心腹大患,Meta已倒戈
36氪· 2025-11-25 11:44
文章核心观点 - 谷歌启动名为TPU@Premises的激进计划,允许客户将TPU芯片直接部署在自有数据中心,旨在打破英伟达对高端AI芯片市场的垄断 [1] - 该计划首个目标客户为Meta,谈判涉及金额达数十亿美元,预计在2027年实施 [2][3] - 谷歌最新旗舰芯片Ironwood TPU v7在关键性能参数上已追平英伟达旗舰B200,并通过拥抱PyTorch生态来降低客户迁移门槛 [6][11][13] - 公司目标是从英伟达口中夺取10%的市场份额,英伟达已通过投资AI初创公司等方式进行反击 [13][14] 战略转变与市场影响 - 谷歌从仅提供云端TPU算力服务(“云房东”角色)转变为直接向客户销售算力硬件(“军火商”角色)[1] - 允许客户进行私有化部署,对拥有海量敏感数据和极高合规要求的巨头(如Meta)更具吸引力 [5] - 这一战略旨在直接挑战英伟达在高端AI训练芯片市场的绝对主导地位 [1] 关键客户与潜在交易 - Meta正与谷歌进行谈判,考虑斥资数十亿美元在2027年将谷歌TPU芯片引入其自有数据中心 [3] - 谈判内容不仅涉及租用,更侧重于“私有化部署”,以满足数据安全和合规要求 [5] - 谷歌最新大模型Gemini 3完全在TPU集群上训练成功,其技术表现抹平了与OpenAI的差距,这动摇了“只有英伟达GPU才能胜任前沿模型训练”的行业偏见,是吸引Meta等客户的关键因素 [5] 硬件性能对比 - 谷歌Ironwood TPU v7与英伟达B200在核心指标上高度接近 [6][7] - **FP8算力**:TPU v7约为4.6 PFLOPS,B200为4.5 PFLOPS,两者基本持平 [7] - **显存容量**:两者均配备192 GB的HBM3e内存,完全一致 [7] - **显存带宽**:TPU v7约为7.4 TB/s,B200为8.0 TB/s,英伟达略高约8% [7] - **互联架构**:谷歌的ICI技术使单Pod内数千颗芯片能以9.6 Tb/s带宽高效互联,提供了卓越的大规模集群扩展性 [8] - 硬件性能的追平使TPU成为英伟达GPU的真正“平替”甚至更优选择 [10] 软件生态策略 - 英伟达最深的护城河是其CUDA软件生态 [11] - 谷歌采取精明策略,并未强推自有JAX语言,而是选择拥抱由Meta发明的、应用广泛的PyTorch框架 [13] - 通过开发“TPU Command Center”软件,使开发者能像使用GPU一样顺滑地通过PyTorch调用TPU,显著降低了客户的迁移门槛 [13] 竞争态势与行业反应 - 英伟达已感受到竞争压力,近期通过对OpenAI、Anthropic等AI明星初创公司进行巨额投资,以换取其对英伟达GPU的长期使用承诺 [14] - 谷歌也开始模仿英伟达的财务绑定策略,例如与云服务商Fluidstack达成协议,承诺提供高达32亿美元的“兜底”支持 [14] - 英伟达CEO黄仁勋近期公开表示对谷歌七代TPU研发成果的“尊重”,反映出其对竞争加剧的警惕 [14]
台积电拟增建三座2nm晶圆厂,半导体产业ETF(159582)盘中一度涨超1.5%
新浪财经· 2025-11-25 06:53
指数与ETF表现 - 截至2025年11月25日13:20,中证半导体产业指数上涨0.23%,成分股神工股份上涨13.18%,长川科技上涨3.55%,立昂微上涨3.44%,华海诚科上涨3.06%,华峰测控上涨1.86% [1] - 半导体产业ETF(159582)当日上涨0.15%,最新价报2.01元,近3月累计上涨11.85% [1] - 半导体产业ETF盘中换手率为6.71%,成交额2526.87万元,近1月日均成交额为5769.30万元 [1] 行业重大投资动态 - 台积电计划在中国台湾增建三座2纳米厂以满足AI芯片订单激增需求,新增投资总额推估达9000亿元新台币,连同原已规划的七座工厂,其2纳米厂总数将达十座 [1] - 亚马逊宣布将投资高达500亿美元,用于扩展面向美国政府客户的AWS人工智能和高性能计算能力 [1] 行业技术与发展趋势 - 端侧AI芯片正朝着高能效比架构、场景化定制和全球化生态方向演进,技术上依赖存内计算、先进工艺与软件工具链协同发展以破解算力与功耗矛盾 [2] - 端侧AI芯片应用场景从消费电子向汽车、工业、医疗等多领域渗透,实现AI与垂直场景的深度融合 [2] - 行业头部企业凭借研发投入领跑技术迭代,国产替代与全球化布局并行,行业集中度与企业竞争力持续提升 [2] 指数构成与样本 - 中证半导体产业指数从上市公司中选取不超过40只业务涉及半导体材料、设备和应用等相关领域的证券作为指数样本 [2] - 截至2025年10月31日,指数前十大权重股包括中微公司、北方华创、寒武纪、中芯国际等,合计占比78.04% [2]
商汤分拆的AI芯片公司,为何全盘押注模型推理市场?
南方都市报· 2025-11-25 06:45
公司战略定位 - 公司全盘押注AI推理芯片市场,选择在推理芯片上进行单点突破,以缩短与英伟达的距离 [2] - 公司认为模型训练和推理在计算精度、内存架构等方面存在较大区别,一颗芯片难以兼顾训练效能与推理的经济性 [2] - 公司脱胎于商汤的芯片业务部门,于2024年底独立并完成第一轮外部融资,2025年7月宣布完成近10亿元的新一轮融资 [2] 产品与技术路线 - 公司已推出三代推理芯片:第一代S1芯片于2020年量产,累计销售超2万颗;第二代S2芯片从2024年9月起量产,实测性能接近英伟达A100的80%;第三代S3芯片于2025年5月立项,预计2026年点亮 [3] - 第三代S3芯片针对大模型推理定制优化,支持FP8和FP4低精度数据格式,将配置200G以上的显存及足够带宽,目标是在大模型推理部署成本上接近英伟达下一代Rubin架构芯片 [3] 市场环境与行业趋势 - 相较于训练芯片,推理芯片的设计难度和数据处理规模相对较低,成为众多国产AI芯片公司的竞争焦点 [4] - 随着预训练模型成熟和智能体及下游应用爆发,行业预见推理算力需求将在未来数年占据上风,进入“大模型下半场” [4] - AI芯片范式正向高性价比推理芯片变迁,高性能训练芯片市场发展空间小,而高性价比推理芯片是市场蓝海 [4] 商业化与生态策略 - 公司选择兼容英伟达的CUDA并行计算框架,以降低客户迁移成本 [5] - 公司通过资本投融资及深度业务合作,紧密绑定上下游企业,确保芯片从设计第一天起就有客户,从而获得反馈提高易用性 [5] - 公司背后的产业资本包括三一集团、第四范式、美的控股、游族网络等,并与商汤科技、世纪互联、超云、硅基流动等建立合作 [5] - 在优化推理芯片性价比方面,关键在于取得算力与显存带宽之间的平衡,避免在推理任务中浪费算力或带宽 [5]
个股异动 | 科德教育、艾布鲁大涨 持有TPU算力公司中昊芯英股权
上海证券报· 2025-11-25 04:10
股价表现 - 科德教育早盘上涨至“20cm”涨停,股价报23.95元/股 [1] - 艾布鲁持续上涨,涨幅达15.06%,股价报38.74元/股 [1] 股价上涨原因 - 两家公司股价上涨或受益于其共同持股公司中昊芯英启动IPO [1] - 中昊芯英已进入股份制改制阶段,专注于高性能TPU架构AI专用算力芯片的自主研发 [1] 股权关联 - 艾布鲁通过子公司星罗中昊间接持有中昊芯英约5.8%股权 [1] - 科德教育持有中昊芯英5.53%股权 [1] 被投资公司核心业务 - 中昊芯英掌握TPU架构AI芯片核心研发技术并实现TPU芯片量产 [1] - 中昊芯英致力于打造“自研AI芯片+超算集群+预训练大模型”的产业价值链 [1]
华为百度接连“秀肌肉”,大厂自研AI芯片为何不再闷声?
南方都市报· 2025-11-24 10:30
行业战略转变 - 国产AI芯片公司从过去几年保持低调、官网信息更新滞后的状态,转变为近期华为、百度等大厂高调公开AI芯片迭代路线图,标志着行业沟通策略的里程碑式转折[1] - 战略转变的驱动因素包括:需要向客户展示清晰产品路线图以抢占英伟达留下的市场蛋糕,以及国产算力方案的推出让投资者看到大厂未来可依赖国产算力供给,促使有自研芯片的公司更高调地沟通进展[2] - 国产半导体供应链的突围,特别是7纳米先进逻辑芯片产线中约三成被禁设备的国产方案已基本填补空白并导入量产线,提升了先进制程芯片制造后续产能扩产的确定性,为产品迭代奠定基础[2] 华为昇腾芯片路线图 - 华为宣布2026至2028年三年间将相继推出昇腾950、960和970三大系列芯片,打破自2020年制裁后仅在910系列内升级的状况[4] - 昇腾950系列包括950PR和950DT两种型号,分别于2026年一季度和四季度推出,采用业内兴起的P/D分离路线,950PR面向推理预填充阶段和推荐业务,950DT更注重推理解码阶段和训练场景[6] - 950PR采用自研低成本HBM(HiBL 1.0)以降低推理预填充成本,内存容量128GB,访问带宽1.6TB/s;950DT采用HiZQ 2.0内存以应对高互联带宽需求,内存容量144GB,访问带宽4TB/s;两款芯片互联带宽均为2TB/s[7] - 昇腾960芯片内存容量288GB,访问带宽9.6TB/s,互联带宽2.2TB/s;昇腾970芯片内存容量288GB,访问带宽14.4TB/s,互联带宽4TB/s[5] - 在算力方面,950系列FP8算力为1 PFLOPS,960系列FP8算力为2 PFLOPS,970系列FP8算力为4 PFLOPS[5] 超节点与集群战略 - 为弥补国产AI芯片在单卡算力、内存等方面的性能短板,华为、百度、阿里等大厂将“超节点+集群”作为应对AI算力需求的关键解决方案,这是在美国极限制裁下被逼出来的范式[11] - 超节点采用纵向扩展(scale-up)方案以突破通信性能瓶颈,华为通过自研“灵衢”(UnifiedBus)互联协议将大带宽、低时延的互联范围从单机柜内部延伸至整个集群,使物理上的多台机器在逻辑上能像一台计算机一样工作[12] - 华为计划在2026年四季度推出基于8192张950DT芯片的Atlas 950超节点,并在2027年四季度迭代至最大支持15488张昇腾960芯片的Atlas 960超节点,同时发布算力规模分别超过50万卡和达到百万卡的超级集群[8] - 华为将Atlas 950超节点与英伟达NVL144系统对比,称其卡规模是英伟达的56.8倍,总算力是6.7倍,内存容量是15倍达到1152TB,互联带宽是62倍[8] - 百度计划在2026年上半年和下半年推出支持256张卡和512张卡互联的“天池”超节点,并从2027年下半年开始陆续推出千卡和四千卡的超节点,目标在2030年点亮百万卡单集群[9] 百度昆仑芯发展 - 百度公布昆仑芯业务路线图:2026年初上市针对大规模推理场景优化的M100芯片,2027年初上市面向超大规模多模态模型训练和推理的M300芯片,2029年上市新一代N系列芯片[9] - 昆仑芯现已支持54个模型的训练和60个模型的推理,包括三款多模态模型是在5000卡或6000卡的昆仑芯集群上完成训练,下一步将在P800芯片集群上尝试最先进模型的训练[19] - 昆仑芯P800芯片的64卡超节点,单卡功耗约400瓦,在FP16精度的总算力规模超20 PFlops,以此换算的单卡算力大致为英伟达A100 SXM版本的一半[10] - 百度为昆仑芯的控股股东,昆仑芯已完成6笔融资,市场多次传出其筹备IPO的传闻,公司近期曾释出涉及IPO全流程管理的招聘岗位[10] 训练与推理市场格局 - 尽管市面上有众多训推一体AI芯片,但真正能用于大模型预训练环节的非常稀少,华为昇腾几乎是唯一可用于大模型训练的国产芯片,但其当前主打型号910C的大部分应用仍然是推理[18] - 基于国产算力开展大模型训练需付出额外算力成本与时间代价,例如科大讯飞为在国产算力平台训练模型,不得不花费额外两个月进行适配工作,拖慢了模型发布进度[19] - 2025年上半年中国GenAI IaaS服务市场中,推理场景占比上升至42%,训练场景占比降低至58%,预计未来随着AI应用普及和多模态生成与实时推理场景丰富,推理基础设施需求将持续增长[19] - 国产推理芯片已可满足当前最先进模型的推理使用,比较先进的国产推理芯片能配置96G显存,一台8张卡的单机就能提供约688G显存容量,足以运行DeepSeek R1-671B等权重约600G的先进模型[20] - 推理芯片市场竞争呈现碎片化,技术路线包括GPGPU玩家和ASIC厂商,ASIC芯片厂商可针对特定推理任务进行深度优化,具备能效与成本优势[20] 大厂自研芯片优势与挑战 - 互联网大厂本身的云业务和AI业务为自研芯片提供了最直观的内部需求,例如昆仑芯P800芯片在百度内部得到充分验证,绝大多数推理任务都运行在P800之上[22] - 大厂自研AI芯片的下游需求明确,即使不对外出售,将其并入云服务中让外部客户使用也等效于卖芯片,同时相较于外购第三方芯片可避免为外部供应商的高毛利买单,节省大量成本[22] - 硬件稳定性是国产AI芯片用于大规模训练的一大挑战,万卡级别训练过程中任何一块芯片出现故障,整个集群都必须暂停并重新启动,集群还需具备应对“静默故障”和快速自愈恢复的能力[16][17] - 国产芯片的质量控制能力尚无法与英伟达匹敌,故障率被放大,因此在集群上线运行前需要进行完善的故障检测[16]