英伟达A100芯片
搜索文档
吞电巨兽AI正在全面重构美国能源格局|独家
24潮· 2025-12-19 02:04
AI爆发驱动电力需求激增 - AI大模型训练与推理消耗电力巨大,ChatGPT每次响应请求耗电约2.9瓦时,是传统谷歌搜索的10倍,其日处理约2亿次访问消耗超50万度电,相当于生产37吨电解铝的耗电量[3] - AI模型参数量与硬件需求激增导致能耗显著上升,GPT-3参数量约1750亿,训练一次耗电1287兆瓦时,GPT-4参数量达1.8万亿,GPT-5预计参数量为3-5万亿,训练芯片从GPT-3的1024块A100增至GPT-5可能需要的30000-50000块H100[6] - 美国超大规模数据中心扩张迅速,截至今年第二季度末拥有约522个,占全球总算力55%,预计到2028年底前还将新增约280个,推动AI电力需求呈指数级增长[9] - 据测算,到2030年美国AI算力累计将达153GW,当年新增40GW,AI算力用电量约1269TWh,将占美国总用电量的22%,2026-2030年美国电力需求年复合增长率预计为4-5%[9][12] 美国电网老化与电力短缺构成发展瓶颈 - 美国电网基础设施陈旧,整体评级仅为C+,70%的变压器已超25年设计寿命,输电线平均使用年限达40年,电网负荷备用率仅20%,抗冲击能力不足[10] - 2024年美国单位用户平均停电时长达662.6分钟,同比上升80.74%,在数据中心集中的弗吉尼亚州与得克萨斯州,停电时长分别达962.1分钟和1614.3分钟,同比增幅高达228.59%和176.85%[2][11] - AI电力需求具有“脉冲式”特征,对电网稳定性构成巨大挑战,部分数据中心接入电网需等待长达7年时间[10] - 德勤2025年调查显示,79%的北美电力及数据中心企业高管认为AI将显著推升用电需求,到2035年有望达123GW,较2024年增长超30倍,而美国能源部预测到2030年电网需新增约101GW负荷,其中近一半由AI数据中心贡献,但同期基荷电源仅规划新增22GW,供需缺口超过70%[11] “光伏+储能”成为解决AI电力需求的核心方案 - 在核电、地热等清洁能源受建设周期长、地域限制等因素制约下,“光伏+储能”因其经济性、建设周期短和地理灵活性,成为科技公司解决AI电力问题的最佳方案[2][17] - 根据Lazard 2025年6月报告,在不考虑补贴情况下,光伏发电度电成本最低为0.038-0.078美元/kWh,光储度电成本为0.05-0.13美元/kWh,具备经济性优势,若考虑ITC补贴,美国光储度电成本最低可降至0.033美元/kWh,下降34%[17] - 美国储能发展进入快车道,2025年9月末大储备案量达66.6GW,较8月末增长19.3%,按3.5h配储时长计算,对应在建及待建规模233GWh[17] - 据测算,2025年美国新能源储能装机需求约53GWh,其中数据中心相关贡献9GWh,2026年预计装机80GWh,同比增51%,数据中心相关贡献37GWh[18] - 联邦能源管理委员会(FERC)大负荷并网提案将加速大负荷用电审批(最快60天)及配套发电机组建设,有利于风光储发电落地[21][22] 科技巨头积极布局清洁能源以保障电力供应 - 主要科技公司均制定了明确的零碳或绿电目标,例如谷歌目标2030年实现全天候无碳能源,微软目标2030年实现碳负排放,亚马逊AWS目标2025年100%使用绿电[20] - 科技公司通过签署大规模可再生能源购电协议(PPA)、投资新建发电项目等方式保障绿电供应,例如谷歌与Brookfield签署了10GW可再生能源框架协议,并与NextEra合作重启爱荷华州杜安·阿诺德核电站(615MW)为AI数据中心供电[20] - 企业绿电战略受到各州政策驱动,如加州要求2045年100%可再生能源,华盛顿州要求2045年100%清洁能源[20] 未来展望与市场空间 - 据测算,若2030年美国新增AI算力40GW,按照50%的绿电供应配比(假设为光伏,配储4小时),对应新增储能需求约240GWh,若按30%绿电配比,对应需求约150GWh[22] - 特斯拉提出“秘密宏图”第三篇章,目标在2050年前实现能源100%可持续,预计全球将需要240TWh储能和30TW可再生电力[23] - 在AI急迫需求的驱动下,美国新能源电力预计将进入新一轮爆发周期[23]
性能是H20两倍!英伟达又一算力芯片或被批准出口,谷歌AI一体化产业链也连续突破
选股宝· 2025-11-23 23:29
特朗普政府考虑批准对华出口英伟达H200芯片 - 特朗普政府正考虑批准向中国出口美国芯片制造商英伟达的H200人工智能芯片[1] - H200芯片相比于其前代产品H100芯片拥有更多的高带宽内存,使其能够更快速地处理数据,性能估计是英伟达H20芯片的两倍[1] - H200是英伟达第一款使用HBM3e内存的芯片,以每秒4.8TB的速度提供141GB的内存,与A100相比,H200内存容量约提升两倍,带宽约增加了2.4倍[1] - H200 NVL是基于Hopper架构的PCIe版GPU,与H100 NVL相比,H200 NVL的内存容量提升了1.5倍,带宽提升了1.2倍,能够在数小时内完成大型语言模型的微调,并提供高达1.7倍的推理性能提升[1] 谷歌AI技术进展与竞争优势 - 谷歌连续发布新模型相对于ChatGPT展现出了巨大的进步,高盛等分析认为市场对此反应迟钝[1] - 谷歌TPU是目前唯一能与英伟达GPU匹敌的AI加速器,依托TensorFlow、OpenXLA等学习框架与TPU构建软硬一体的AI生态,具备与CUDA竞争的潜力[2] - 在互联方面,TPU通过OCS实现Scale-out,v7p可拓展至9216 pod互联[2] - 谷歌将2025年资本支出上修至约910-930亿美元,且预计2026年资本支出将显著增加,以应对企业客户对AI基础设施的强劲需求[2] - 谷歌在推理、多模态能力、Agent工具使用、多语言性能和长上下文均位居行业顶尖,确立了在闭源模型的阶段性优势[2] 相关产业链公司动态 - 中际旭创为谷歌光模块主供应商,硅光、1.6T产品均已量产出货,3.2T产品正在研发[3] - 中际旭创海外子公司TeraHop推出行业首款基于硅光子学平台的64x64 OCS交换机,可降低人工智能集群功耗,有助于构建网络架构、减少核心交换机数量[3] - 当虹科技的空间智能技术与谷歌的nano banana技术有一定相似之处,其发布的三维体积视频建模技术可通过多视角图片跨模态生成三维模型或者场景[3]
GPU寿命,远超想象
半导体芯闻· 2025-11-20 10:49
文章核心观点 - 针对市场关于人工智能行业因GPU快速折旧而存在巨大泡沫的担忧,文章提出反驳观点,认为GPU的实际经济使用寿命远长于市场预期,当前云计算厂商的折旧会计处理是合理的 [1][2] GPU折旧会计处理的合理性 - 伯恩斯坦顶级芯片分析师指出,GPU的盈利运行周期约为6年,大多数大型超大规模云计算厂商的折旧会计处理是合理的 [2] - 即便每一代GPU的性价比有显著提升,厂商使用已推出5年的英伟达A100芯片仍能获得可观利润,这意味着5到6年的折旧年限是合理的 [3] GPU的实际使用寿命与经济价值 - 人工智能云计算提供商Lambda的高管表示,GPU的实际使用寿命可延长至7到8年,尽管会计折旧周期通常为6年 [5] - 硬件质保合同通常为期5年,如GPU故障可提供换新服务,从而延长整个GPU集群的使用寿命,早期型号GPU的实际使用年限均远超6年 [5] - 旧款GPU的采购成本更低,综合考量所有成本后,其运行成本往往比新款GPU更具优势 [10] GPU的生命周期迁移与多样化应用 - GPU存在生命周期迁移路径,可从尖端的AI模型训练任务,逐步过渡到要求较低的推理工作负载 [6] - 有数千种不同的高价值AI工作负载可在旧款GPU上顺畅运行,许多已使用多年的GPU仍在积极服役并创造利润 [6] - 免费增值版AI服务可采用在性能较低、价格更便宜的旧硬件上运行的模型进行推理,付费版服务再启用需要新型GPU支持的更强大模型 [7] 开源模型与旧款GPU的协同效应 - 部分AI服务可基于开源模型运行,例如语音转文字服务,这些模型可在旧GPU上运行并创造价值 [8] - 随着越来越多初创企业采用成本更低的开源模型,旧款GPU的使用率可能会进一步提升 [8]
AI泡沫的“核心争议”:GPU真的能“用”6年吗?
华尔街见闻· 2025-11-19 23:45
文章核心观点 - GPU真实经济寿命的会计问题成为AI投资多空双方的新战场,直接影响科技巨头数百亿美元利润和AI估值泡沫虚实[1] - 伯恩斯坦报告认为GPU折旧周期设定为6年合理,支持科技巨头当前折旧政策的公允性[1] - 以Michael Burry为代表的看空方认为AI芯片实际寿命仅2-3年,科技巨头通过会计手段虚增利润[1] GPU折旧经济性分析 - 伯恩斯坦分析师指出GPU可盈利运行约6年,超大规模数据中心折旧会计合理[2] - 运营旧GPU现金成本远低于市场租赁价格,持续运行旧GPU能带来高贡献利润[2] - 5年历史的英伟达A100芯片供应商仍可获得舒适利润,7年前Volta架构才接近现金成本盈亏平衡点[2] - GPU租赁价格比运营现金成本高出一个数量级,A100芯片贡献利润率高达70%[4] - A100每小时收入0.93美元,现金成本仅0.28美元,巨大利润空间激励延长GPU运行时间[4] - GPU价值损失非线性,第一年因磨合期问题和市场偏好损失20-30%价值,之后价值相对稳定[4] GPU运营经济数据 - H100每小时中位价格4.50美元,利用率60%时每GPU收入2.70美元,贡献利润2.32美元,利润率86%[5] - A100每小时中位价格2.99美元,利用率60%时每GPU收入1.79美元,贡献利润1.49美元,利润率83%[5] - L40每小时中位价格2.73美元,利用率60%时每GPU收入1.64美元,贡献利润1.34美元,利润率82%[5] - B200每小时中位价格5.50美元,H200每小时中位价格5.50美元[3] 算力市场需求 - 算力受限世界中市场对算力需求压倒性,AI实验室愿为任何可用算力付费包括旧型号[7] - A100算力容量接近完全预订状态,需求持续强劲使运行旧硬件仍有价值[8] 科技公司折旧政策 - 谷歌服务器和网络设备折旧年限为六年[9] - 微软计算机设备折旧年限二至六年[9] - Meta计划从2025年1月起将部分服务器和网络资产使用寿命延长至5.5年[9] - 亚马逊服务器和网络设备折旧年限五年[10] - 甲骨文计算机设备折旧年限1-6年[10] - 亚马逊2025年第一季度将部分服务器预计使用寿命从六年缩短至五年,反映AI技术发展加速[10] 看空方观点 - Michael Burry警告科技巨头通过延长资产有效使用寿命低估折旧,人为抬高收益[11] - Burry预计2026-2028年会计处理将使大型科技公司利润虚增1760亿美元[12] - 到2028年甲骨文利润可能被夸大26.9%,Meta利润可能被夸大20.8%[12] - 美国银行和摩根士丹利警告市场低估AI投资真实规模,对未来折旧费用激增准备不足[14]
AI芯片,到底有多保值?
半导体行业观察· 2025-11-16 03:34
文章核心观点 - 全球顶级科技公司计划在未来五年投入1万亿美元建设AI数据中心,AI显卡的折旧问题成为影响投资回报和利润的关键会计因素 [2] - AI显卡作为相对新颖的资产,其使用寿命缺乏历史参考,科技公司在折旧年限上存在分歧(2至6年不等),这直接影响公司利润和融资可行性 [2][4] - 技术迭代加速(如英伟达从两年缩短至一年发布新芯片)加剧了AI显卡因技术过时而贬值的风险,管理层对折旧年限的估算面临重大挑战 [8] AI基础设施投资与折旧的重要性 - 谷歌、甲骨文和微软等基础设施巨头表示服务器使用寿命最长可达六年,但微软在年度报告中称计算机设备使用年限为两到六年 [2] - 设备保值时间越长,企业分摊折旧的年限就越长,对利润的冲击也就越小,这是投资者和贷款人重点考量的因素 [2] AI显卡折旧面临的挑战 - 英伟达首款面向数据中心的AI专用处理器于2018年左右推出,当前AI热潮始于2022年底ChatGPT发布,英伟达数据中心业务年收入从150亿美元飙升至截至今年1月财年的1150亿美元 [4] - 与企业已使用数十年的其他重型设备相比,显卡的使用寿命没有真正的历史参考记录,融资成功与否与此息息相关 [4] - 做空者迈克尔・伯里认为服务器设备实际使用寿命约为两到三年,科技公司因此虚增了收益,他指出Meta、甲骨文、微软、谷歌和亚马逊等公司夸大了AI芯片使用寿命并低估了折旧成本 [6] 企业对折旧年限的实践与分歧 - CoreWeave公司自2023年起将其基础设施的折旧周期设定为六年,其CEO表示对显卡使用寿命采取数据驱动判断方式 [4] - 2020年发布的英伟达A100芯片目前已全部预订一空,一批2022年的英伟达H100芯片因合同到期重新可用,立即以原价95%的价格被预订 [5] - 亚马逊在2月的一份文件中表示,已将部分服务器的使用寿命从六年缩短至五年,原因是技术发展速度加快,特别是在人工智能和机器学习领域 [8] - 其他超大规模科技公司则在延长新型服务器设备中显卡的预计使用寿命 [8] 技术迭代加速对折旧的影响 - 英伟达现在每年都会推出新款AI芯片,而此前的更新周期为两年 [8] - 英伟达CEO黄仁勋在发布新款Blackwell芯片时开玩笑说,当Blackwell芯片开始批量出货时,上一代Hoppers芯片就算白送也没人要了 [8] - 微软CEO萨提亚・纳德拉表示,公司正尝试分散AI芯片采购时间,避免对单一世代处理器过度投资,并指出任何新款英伟达AI芯片的最大竞争对手都是其前一代产品 [9] - 折旧估算需考虑技术淘汰速度、维护需求、历史使用寿命及内部工程分析等多种假设,并需通过审计师核查 [9]
万亿美元AI投资回报被夸大?现在每个人都在问:GPU的寿命究竟有几年?
美股IPO· 2025-11-14 23:10
AI数据中心投资与GPU折旧问题概述 - 全球科技巨头计划在未来五年投入1万亿美元建设AI数据中心,GPU折旧年限的会计问题成为影响企业利润和投资回报的核心焦点[3] 科技巨头对服务器使用寿命的预估差异 - 谷歌和甲骨文等公司预计服务器使用寿命长达六年,但微软最新披露的计算机设备使用寿命为二至六年,区间跨度显著[1][3] - 大空头Michael Burry认为服务器设备实际使用寿命仅二至三年,并指控相关公司通过此方式夸大收益[1][6] GPU折旧评估面临的独特挑战 - AI芯片作为新兴资产类别缺乏充分历史数据支撑,英伟达首批面向数据中心的AI处理器于2018年前后推出,当前AI热潮始于2022年底[5] - 与企业使用数十年的重型设备相比,GPU缺乏足够使用寿命记录,折旧年限选择(三年、五年或七年)从融资角度看差异巨大[5] 市场对GPU保值能力的分歧观点 - CoreWeave对其基础设施采用六年折旧周期,其2022年发布的英伟达H100芯片在合同到期后以原价95%的价格被立即预订一空[6] - 但CoreWeave股价较6月高点下跌57%,甲骨文股价较去年9月峰值暴跌34%,反映出投资者对AI过度投资的疑虑升温[3][6] 技术迭代加速对GPU折旧的压力 - 英伟达CEO黄仁勋暗示,当新一代Blackwell芯片开始大量出货时,前代产品Hopper的价值将大幅下降[7] - 英伟达将AI芯片发布周期从两年缩短至每年一次,亚马逊已将部分服务器使用寿命从六年缩短至五年,理由是AI和机器学习领域技术发展步伐加快[7] 科技公司的应对策略与审计考量 - 微软CEO表示公司正分散AI芯片采购,避免过度投资单一代处理器,并指出任何新英伟达AI芯片的最大竞争对手是其前代产品[8][9] - 折旧是管理层的财务估计,快速发展行业的进展可能改变最初预测,审计师会详细审查工程数据等假设来确认资产真实寿命[9]
万亿美元AI投资回报被夸大?现在每个人都在问:GPU的寿命究竟有几年?
华尔街见闻· 2025-11-14 14:11
文章核心观点 - AI数据中心建设投资巨大,未来五年全球科技巨头计划投入1万亿美元 [1] - GPU折旧年限的会计问题成为影响企业利润和投资回报的核心焦点 [1] - 市场对AI过度投资存在担忧,部分公司股价已出现显著下跌 [1] GPU折旧的行业现状与分歧 - 科技巨头对服务器使用寿命的估算存在差异,谷歌、甲骨文和微软预计可达六年,但微软给出的区间为二至六年 [1] - 折旧期限长短直接影响企业财务表现,较长的保值时间可将折旧成本分摊至更多年份,减轻对利润的冲击 [1] - AI GPU作为新兴资产类别,缺乏充分的历史数据支撑,为投资者和贷款机构带来不确定性 [1] GPU折旧估算面临的挑战 - AI芯片折旧评估缺乏足够的使用寿命记录,英伟达首批数据中心AI处理器于2018年前后推出 [4] - 与企业使用数十年的重型设备相比,GPU缺乏可比的使用寿命记录 [4] - 折旧是将硬资产成本分摊到预期使用寿命的会计做法,对采购数十万块GPU的企业至关重要 [4] 市场对GPU使用寿命的不同观点 - CoreWeave自2023年起对其基础设施采用六年折旧周期,其CEO表示数据驱动评估显示基础设施保持价值 [5] - CoreWeave的英伟达A100芯片已全部预订满,一批2022年的H100芯片以原价95%的价格被迅速预订 [5] - 做空者Michael Burry认为科技公司高估了AI芯片使用寿命,服务器设备实际使用寿命约为二至三年,公司因此夸大收益 [5] 技术迭代对折旧的影响 - AI芯片可能在六年内折旧的原因包括磨损损坏或新GPU发布导致过时,经济性大幅下降 [6] - 英伟达CEO黄仁勋暗示,新一代Blackwell芯片大量出货后,前代产品Hopper的价值将下降 [6] - 英伟达现在每年发布新AI芯片,而此前为两年周期,其竞争对手AMD也采取了同样做法 [7] 科技巨头的应对策略与考量因素 - 微软CEO表示公司正试图分散AI芯片采购,避免过度投资于单一代处理器,并关注英伟达的迁移步伐加快 [8] - 折旧是管理层的财务估计,快速发展行业的进展可能改变最初预测 [8] - 折旧估计需考虑技术过时、维护、类似设备历史寿命和内部工程分析等假设,并需说服审计师 [8]
24小时环球政经要闻全览 | 11月4日
格隆汇· 2025-11-04 00:35
全球股市表现 - 美股主要指数涨跌互现,道琼斯工业平均指数下跌0.48%至47336.68点,纳斯达克指数上涨0.46%至23834.72点,标普500指数微涨0.17%至6851.97点 [1] - 亚太市场普遍上涨,日经225指数大涨2.12%至52411.34点,韩国KOSPI指数上涨2.78%至4221.87点,恒生指数上涨0.97%至26158.36点 [1] - 欧洲市场表现相对平淡,欧洲斯托克50指数微涨0.30%,英国富时100指数和法国CAC40指数分别下跌0.16%和0.14% [1] 美联储政策动向 - 美联储理事米兰主张进一步降息50个基点,认为政策过度紧缩且中性利率远低于当前水平,并警告持续紧缩会加剧经济下行风险 [2] - 美联储理事库克表示12月会议可能降息,理由是就业下行风险超过通胀风险,劳动力市场正在降温 [2] 中美经贸关系 - 美国财长贝森特表示,若中国继续阻止稀土出口,美方可能对华加征关税 [3] - 中国外交部回应称对话和合作才是解决问题的正确途径,威胁与施压毫无助益,双方应落实中美元首会晤共识 [3] 美国财政与融资 - 美国财政部预计第四季度借款5690亿美元,较7月预估减少210亿美元,减少主因是10月初现金余额达8910亿美元超预期 [3] - 财政部预计2026年一季度融资5780亿美元,目标维持现金余额8500亿美元 [3] 人工智能与云计算投资 - 亚马逊云服务与OpenAI签署价值380亿美元的七年期算力协议,OpenAI将启用AWS的英伟达GPU资源,计划于2026年底前完成全量部署 [4] - 微软宣布向阿联酋投资152亿美元,联合本土AI企业G42扩建数据中心与云设施,并计划引入英伟达A100、GB300等受限芯片 [5] - 微软与澳大利亚企业Iren签署97亿美元五年期协议,采购AI云计算能力,Iren同步宣布以58亿美元向戴尔采购设备 [7] 加密市场动态 - 加密市场出现闪崩,比特币1小时内从10.8万美元跌至10.5万美元,以太坊从3700美元跌至3500美元,24小时内31.9万头寸遭平仓,爆仓金额超12亿美元 [4] 公司融资与并购 - 谷歌母公司Alphabet计划通过发行美元债券筹集约150亿美元资金,期限从3年到50年不等,资金将用于一般公司用途 [4] - 博裕资本拟以40亿美元收购星巴克中国至多60%股权,星巴克预计中国零售业务价值将超过130亿美元 [7][8] - 辉瑞对诺和诺德及Metsera提起反垄断诉讼,试图阻止后者90亿美元的收购案 [6] 国际外交事件 - 秘鲁因墨西哥驻利马大使馆启动向秘鲁前总理贝特西·查韦斯提供庇护的程序,宣布与墨西哥断绝外交关系 [4] - 中德外长通话,中国外长王毅强调中德关系应秉持相互尊重、合作共赢,反对"麦克风外交"与无端指责 [3]
阿联酋获微软(MSFT.US)152亿美元投资承诺 美国批准出口英伟达(NVDA.US)GB300 GPU
智通财经· 2025-11-03 13:44
投资概述 - 微软宣布在2023年至2029年期间于阿联酋投资152亿美元 [1] - 投资旨在推动公司在阿联酋地区的业务增长 [1] - 公司已获得向阿联酋出口先进人工智能GPU的许可,其中包括英伟达产品 [1] 投资构成 - 投资包含对阿联酋企业G42的15亿美元股权投资 [1] - 包含超过46亿美元用于在阿联酋建设先进AI及云数据中心的资本支出 [1] - 包含超过12亿美元的本地运营支出 [1] - 从明年起至2029年,将追加超79亿美元支出,其中超55亿美元用于AI及云基础设施资本支出,24亿美元用于本地运营及销货成本 [1] 战略意图与影响 - 公司强调投资行动需快速且务实,并对投资细节保持透明 [1] - 公司相信投资将为股东、阿联酋民众及两国关系带来益处 [1] - 获得出口许可能够利用GPU支持OpenAI、Anthropic、开源提供商及微软自身的先进AI模型 [2] - 将为各类本地及国际AI应用提供支持,并与G42合作为阿联酋公共、私营部门及消费者提供服务 [2] 出口许可细节 - 出口许可由美国商务部于9月批准 [1] - 许可允许微软向阿联酋额外运送等效于60400个A100芯片的产品及部分英伟达GB300 GPU [1] - 此前已获批准在阿联酋部署等效于21500个英伟达A100 GPU的产品,包含A100、H100及H200芯片 [2] 市场反应 - 消息发布后,微软盘前股价小幅上涨 [1] - 英伟达股价上涨2% [1]
The Information:阿里与百度加速“去英伟达化”
美股IPO· 2025-09-12 01:38
行业技术转型 - 中国科技与AI领域出现重大转变 阿里巴巴和百度开始使用自主设计芯片训练AI模型 部分替代英伟达芯片[3] - 美国对华先进AI芯片出口限制收紧 促使中国企业加大自研AI芯片研发力度[3] - 中国政府促进企业采用自主技术 共同推动了这一转变[3] 阿里巴巴芯片进展 - 自今年初以来 阿里巴巴已在为小型AI模型使用自研芯片[3] - 阿里巴巴的AI芯片或可与英伟达H20竞争 H20是专门为中国市场设计的缩减版芯片[3] - 阿里巴巴"Zhenwu"芯片更先进版本性能略优于英伟达五年前发布的A100芯片[3] - 阿里巴巴芯片与英伟达差距依然较大[3] - 阿里巴巴仍未完全弃用英伟达芯片 仍在使用英伟达芯片开发最尖端AI模型[4] 百度芯片进展 - 百度尝试用其昆仑P800芯片训练新版文心一言AI模型[3] - 昆仑P800芯片不如英伟达最前沿的Blackwell芯片强大[3] - P800是专门为大型语言模型设计 能够同时胜任推理和训练任务[3] - 百度已开始在后训练阶段使用昆仑P800 对旧模型输出进行微调以契合用户体验[4] - 百度已于6月发布了这些模型的开源版本[4] - 百度仍未完全弃用英伟达芯片 仍在使用英伟达芯片开发最尖端AI模型[4] 英伟达回应 - 英伟达发言人表示竞争已经到来 客户会选择最合适的技术栈[4] - 英伟达将继续努力赢得主流开发者的信任和支持[4]