AI训练与推理
搜索文档
“中国版英伟达”之争升温!沐曦上市首日暴涨700%,市值逼近摩尔线程
华尔街见闻· 2025-12-17 07:49
上市表现与市场定位 - 沐曦股份上市首日股价一度暴涨超700%,盘中最高触及895元,单签浮盈接近40万元,刷新全面注册制以来新股纪录 [1] - 截至收盘,公司总市值达3320亿元,逼近上周上市的摩尔线程(3360亿元) [1] - 尽管公司尚未盈利且2025年前三季度亏损3.46亿元,市销率一度超过150倍,市场仍给予极高溢价,核心原因在于国产GPU已进入“供给侧出清 + 需求侧被迫切换”的历史窗口期 [3] 公司概况与创始团队 - 沐曦成立于2020年9月,总部位于上海,主营业务为高性能通用GPU芯片及解决方案,面向AI训练与推理、数据中心与云计算、高性能计算(HPC) [4] - 公司是国内极少数同时具备GPU核心IP自研、芯片量产、软件栈完整交付能力的厂商 [4] - 公司由陈维良、彭莉、杨建三位AMD资深华人科学家联合创立,核心创始团队拥有完整的AMD背景 [5] - 相比之下,摩尔线程创始团队呈现出明显的“英伟达基因”,其创始人张建中曾任英伟达全球副总裁、大中华区总经理 [5] - IPO后,董事长兼CEO陈维良通过直接及一致行动人方式合计控制公司约23%的股份,控制权相对集中 [5] 股东结构与技术路径 - 公司股东包括财务投资机构、产业资本和政策背景资金,例如国家人工智能产业投资基金、葛卫东(混沌投资)、红杉中国、经纬创投、联想、上汽、京东、美团等 [6] - 此类股东配置在国产算力企业中较为典型,既反映财务投资参与,也体现潜在应用场景的关注 [8] - 在技术路径上,沐曦选择兼容策略,自研了MXMACA软件栈,在API层面对CUDA实现较高程度兼容,目标是降低现有应用向国产平台迁移的成本 [9] - 公司披露,一个中等复杂度CUDA应用迁移至MXMACA的工作量约为1人天 [11] 产品进展与商业化速度 - 公司已完成多代GPU的流片与量产,产品包括曦云C500系列和曦云C600系列 [12] - 曦云C500系列已于2024年实现量产并形成收入,曦云C600系列已完成回片,计划后续推出 [20] - 公司营收增长迅速:2022年42.6万元、2023年5302万元、2024年7.43亿元,2025年前三季度达12.36亿元 [13] - 2025年前三季度营业收入为12.36亿元,较上年同期的2.23亿元增长453.52% [15] - 2025年前三季度净亏损约3.46亿元,较上年同期净亏损7.82亿元收窄55.79% [14][15] - 公司明确给出指引,最早于2026年实现盈亏平衡,早于摩尔线程的2027年 [16] - 相比之下,摩尔线程2025年1-9月营业收入为7.85亿元,净亏损7.24亿元 [16] 行业背景与竞争格局 - 过去两年,算力需求持续增长,AI训练、推理、智算中心建设成为政企和云厂商的重要投入方向 [3] - 在全球产业链调整和相关政策影响下,部分海外高端GPU产品在中国市场的供给和交付节奏出现变化 [3] - 市场对国产GPU厂商的关注重点,已从“技术可行性验证”转向是否具备量产能力、能否进入真实业务场景、是否已形成初步收入规模 [3] - 沐曦是少数已经披露规模化收入的国产GPU厂商之一 [3] - 当前国内GPU厂商技术路径大致可分为三类:AI专用芯片(如寒武纪)、全功能GPU并自建生态(如摩尔线程)、通用GPU并高度兼容CUDA(如沐曦) [12] - 寒武纪已证明,一旦切中国产替代窗口,GPU公司可以在极短时间内完成“盈利翻转” [17] - 长期来看,成为“中国英伟达”需要满足自主GPU IP、主导型软件生态、长期超额盈利能力三件事,目前无论是摩尔线程还是沐曦都尚未达到 [18]
佰维存储:获服务器厂商、头部互联网厂商等多领域头部厂商核心供应商资质
巨潮资讯· 2025-11-11 17:07
公司业务进展 - 公司企业级业务处于高速发展阶段,已获得服务器厂商、头部互联网厂商以及国内头部OEM厂商的核心供应商资质,并实现预量产出货 [1] - 核心供应商资质的获取意味着完成多轮验证并进入客户体系,为后续批量订单铺路 [3] - 在预量产阶段通过工艺爬坡与一致性管控,逐步提升良率与交付稳定性 [3] 客户与市场策略 - 服务器与互联网厂商具备规模化部署与快速迭代的特点,OEM厂商负责整机集成与渠道覆盖,三方协同可加速企业级新品的放量节奏 [3] - 公司表示将继续完善产品矩阵并加深与核心客户的协同开发,围绕性能、可靠性与能效推进代际升级,同时优化供应链以提升规模化供货能力 [3] 行业趋势与需求 - AI训练与推理带动数据中心扩容,企业级存储需求结构向更高带宽、更低时延与更高耐久度转变 [3] - 存储供应商需在控制器、固件算法与质量体系上形成差异化能力,以满足数据中心对SLA与全生命周期成本的要求 [3] 商业化前景 - 核心资质与预量产的组合意味着商业化临近关键阶段 [3] - 后续需关注批量导入节奏,若公司顺利实现大规模量产,客户结构与产品结构有望进一步优化 [3]
DeepSeek“点燃”国产芯片 FP8能否引领行业新标准?
智通财经网· 2025-08-24 07:48
公司动态 - DeepSeek宣布新一代模型DeepSeek-V3.1采用UE8M0 FP8 Scale参数精度 该精度标准针对下一代国产芯片设计 [1] - 消息引发资本市场强烈反应 寒武纪等芯片类上市企业股价集体拉升 [1] - 在2025算力大会上 FP8精度标准被讨论 但业内人士情绪较资本市场更为审慎 [1] 技术解析 - FP8将数据宽度压缩至8位 相比FP32的4字节传输量 FP8仅需1字节 算力效率翻倍 同时降低网络带宽通信量和存储要求 [2] - 在相同功耗下 AI芯片可训练更大模型或缩短训练时间 [2] - 低精度训练推理易因数值范围太小导致计算出错 不同计算对精度要求不同 矩阵乘法对精度不敏感可用FP8 累加或某些函数需较高精度 [3] - 业内通常采用混合精度训练 根据计算类型动态选择不同精度 兼顾效率与准确 [3] 行业影响 - DeepSeek-V3.1使用UE8M0 FP8 Scale参数精度 被视为国产AI芯片即将迈入新阶段的信号 [4] - FP8代表算力优化正确方向 大模型训练推理不只是堆砌硬件 但并非灵丹妙药 需关注实际落地效果 [4] - 大模型对精度容忍度越来越高 从FP32到FP16再到FP8是行业逐步验证路径 DeepSeek验证FP8在大规模模型可行性 [4] - 精度标准变化需上下游厂商联动优化 国产算力生态需同步升级 包括芯片、框架、算力平台到应用层闭环适配 [4] - 摩尔线程已提前布局FP8研究 作为技术储备并在生态调整中占据主动 [4] 发展挑战 - 大模型训练推理核心瓶颈包括能耗、稳定性和集群利用 需解决效率与容错问题 确保集群可靠性 [5] - 国内万卡规模集群已有部署 但需向大智算集群演进 简单堆卡不能完全满足需求 提高单卡效率与集群调度优化同样关键 [5]