壁仞BR100
搜索文档
国产GPU的大时代
36氪· 2025-12-22 01:05
上周三,沐曦股份登陆科创板,开盘暴涨超568%,市值瞬间突破3000亿元。1.9万股民集体狂欢,因为中一签就能暴赚30万,这要比前几天上市的摩尔线 程还要夸张。当下,两家公司市值合计超6000亿元,整个资本市场洋溢着一股近乎狂热的乐观气息。 更令人兴奋的是,就在沐曦上市的同一天,壁仞科技传来港股IPO已通过聆讯的消息,最快2026年初挂牌。这相当于给了前两次没赶上的投资者第三次机 会,国产GPU板块即将掀起新一轮高潮。中国GPU的春天,似乎终于来了。 但冷静下来看,这场国产GPU的狂欢,似乎只有投资者赚得盆满钵满。 根据招股书中披露的财务状况显示,摩尔线程、沐曦、壁仞目前均处于大额亏损状态。其中,摩尔线程2025年前三季度亏损7.24亿,沐曦为3.46亿,壁仞 在今年上半年亏损为16.01亿。更重要的是,目前三家公司都处在加大研发的阶段,商业化也都刚刚起步,根本不存在短期盈利的可能。 可在投资者眼中,这点亏损根本不算事。 因为三家公司的GPU可是AI时代的硬通货。从2023年大模型热潮爆发以来,全球算力供不应求。最大受益者英伟达在每个报告期都赚爆,成为人类历史 上市值最高的公司。各大投行打着计算器,接连给国产 ...
围观!预算2100万GPU服务器别样标书
是说芯语· 2025-11-18 07:57
采购项目概况 - 某985高校发布总预算2100万+的GPU服务器采购需求,计划采购13台服务器 [1] - 采购核心逻辑从传统“参数堆砌”转向“实用性”与“适配性”,重点关注国产化、实测性能和模型兼容性 [1][3] - 采购清单包括10台标准GPU服务器和3台高密度GPU服务器(单台搭载≥16张GPU卡) [4][8] 技术规格要求 - 服务器CPU要求采用国产x86架构,配置≥2颗处理器,单颗基础主频≥2.7GHz,核数≥64核,线程数≥128 [6][8] - 标准服务器要求配置≥8张国产AI加速卡,单卡显存≥96GB,整机FP16算力≥2.2 PFLOPS [6] - 高密度服务器要求单台配置≥16张GPU卡,整机HBM显存容量≥1400GB,GPU卡间互联带宽≥700GB [8] - 网络配置要求支持IB和RoCE联合组网,标准服务器需配备≥4*400G光口网卡,高密度服务器需配备≥1*双口200G卡 [6][8] 性能与兼容性测试 - 要求服务器支持CUDA生态,需现场演示通用AI相关主流Cuda Samples算子的兼容能力 [8][9] - 高密度服务器需在BF16精度下运行DeepSeek-V3 671B或DeepSeek-R1 671B模型推理服务,在256/256输入输出场景下TPOT≤50ms时,承载≥32并发,单机生成吞吐≥600 Tokens/秒 [8] - 同时要求运行QWEN3-235B-INT8模型,在256/256输入输出场景下TPOT≤100ms时,承载≥512并发,单机生成吞吐≥4700 Tokens/秒 [9] 采购趋势变化 - 趋势一:从“指标比拼”转向“模型实测”,高校直接将DeepSeek、Qwen等主流大模型作为测试标准,要求算力从理论性能落地为实用价值 [10] - 趋势二:从“N卡封闭生态”转向“国产兼容生态”,标书明确国产化导向,同时要求兼容现有成熟软件生态,降低科研机构迁移成本 [10] - 趋势三:从“硬件采购”转向“算力体系建设”,采购目的是搭建AI算力支撑体系,厂商需提供从硬件部署到模型优化的全链条服务 [11] 国产算力厂商机遇 - GPU领域海光DCU、壁仞BR100、沐曦MX1系列已具备技术积累,部分产品算力指标接近主流N卡 [11] - CPU方面海光3号、飞腾2000+、鲲鹏920等产品凭借稳定性能成为高校服务器常用选择 [11] - 软件生态上海光DCU已实现对PyTorch、TensorFlow等主流框架兼容,壁仞科技通过完善工具链降低CUDA迁移成本 [12]
易观分析:2025年中国AI算力基础设施发展趋势洞察报告
搜狐财经· 2025-08-29 15:44
中国AI算力基础设施现状总览 - 国家顶层布局以“东数西算”工程为核心,在8地建设国家算力枢纽,规划10大数据中心集群,配套多项政策构建“全国一张网”格局 [5] - 截至2024年全国在用算力中心机架规模达830万标准机架,算力总规模超280 EFLOPS(全球第二),其中智能算力90 EFLOPS占比超30%,较2019年增长近13倍(年均增速约90%) [7] - 区域协同形成东部聚焦低时延业务、西部承接后台计算的多层算力网络 [9] 发展环境驱动因素 - 政策层面国家夯实顶层设计,地方明确智算建设目标(如上海2027年智算规模200 EFLOPS),聚焦自主创新与绿色节能 [12] - 技术层面AI芯片性能突破,液冷技术降低PUE(先进智算中心PUE≤1.2),高速互联与软件定义技术实现算力池化调度 [17] - 产业层面生成式AI引爆需求,大模型训练/推理带动算力消耗激增,应用从互联网(占比超50%)向金融、制造、医疗等传统行业渗透 [19] - 商业化层面算力供给转向平台化服务与生态协同,按需租赁等模式降低中小企业门槛 [21] AI算力基础设施发展进程 - 探索期(~2019年)聚焦数据中心与云计算,AI算力服务于基础机器学习 [29] - 市场启动期(2020-2022年)GPT3发布(千亿级参数),疫情加速线上化催生算力需求 [32] - 高速发展期(2023-2028年)2023年为“AI算力增长元年”,生成式AI推动算力需求向超大规模集群跃迁,国产化与绿色化成为主流 [34] - 应用成熟期(2029年~)算力基础设施化,“算力即服务”普及,市场寻求量子计算等创新 [34] 核心驱动因素 - 大模型迭代参数量从十亿级跃升至万亿级,中国大模型数量占全球36%,带动算力指数级需求 [35] - 政策与资本联动“东数西算”撬动超2000亿元投资,国资主导基金聚焦AI芯片与算力服务 [35] - 产业应用规模化推动互联网、金融、制造等行业智能化升级,工业与能源场景化智算需求成为新动能 [36] - 长尾算力释放通过分布式调度技术整合闲置GPU/TPU,提升设备利用率(如高校闲置节点对外服务) [37] - 云化调度技术通过容器化、弹性伸缩与标准化计费实现算力即取即用,扩大用户群体 [38] 2025年关键趋势 - 自主可控算力加速突破,先进地区明确国产化指标(如上海2027年自主可控算力占比超70%),国产AI芯片性能逼近国际水平 [39] - 绿色算力成硬性约束,新建大型数据中心PUE需≤1.3,超大型智算中心以PUE≤1.2为标准,液冷技术节能30%+,新一代国产AI芯片单位算力能耗降低25% [41][42] - 跨区域算力互联深化增加国家级骨干直联点(现有26个),扩展骨干网带宽实现算力自由流动,西部富余绿色算力支援东部优化供需 [44][45] - 智算云平台“双轨并行”,综合型平台提供全链条服务降低AI研发门槛,垂直型平台聚焦特定领域适配场景化需求 [46] - LLM+知识库催生新需求,部署知识增强模型所需智算能力为基础LLM的2~3倍,推动垂直领域智算中心建设 [48] - 算力云化加速普惠,2024年智能算力服务市场增速80%,云厂商推出GPU租赁等产品,整合高校闲置节点提升全社会算力利用率 [49][50] 利益相关方建议 - 政府层面加强区域算力网络规划,推进全国统一调度平台建设,对绿色算力与自主技术研发给予资金/税收优惠,开放公共数据释放需求 [51] - 企业层面供给方打造高品质算力云平台开发行业定制化方案,需求方将算力纳入战略规划优先通过云租赁替代自建 [52] - 园区与枢纽层面打造智算产业集群配套绿色能源与高速网络,创新运营模式避免资源闲置 [53] - 生态层面联合芯片、服务器、云平台企业攻关关键技术,推进高校-企业合作培养专业人才,组建产业联盟制定算力标准 [54]