Workflow
推理引擎
icon
搜索文档
AI芯片独角兽一年估值翻番,放话“三年超英伟达”,最新融资53亿超预期
36氪· 2025-09-18 08:15
融资情况 - 公司完成7.5亿美元(约53亿人民币)融资,超出最初6亿美元预期目标[1][4] - 公司估值达到69亿美元(约490亿人民币),一年内估值从28亿美元(约199亿人民币)增长超过一倍[1][4][5][6] - 融资由Disruptive领投,贝莱德、路博迈、德国电信资本合伙公司进行重大投资,三星电子、思科系统等现有投资者参与[6] - 公司累计融资总额超过30亿美元(约213亿人民币)[6] 资金用途与业务扩张 - 融资将用于扩大数据中心容量,包括今年和明年的新选址计划[7] - 公司计划在今年宣布首个亚太地区数据中心选址[7] - 客户需求超出当前容量供给,存在未满足的高容量需求[8] 技术优势与产品特性 - 公司专注于AI推理芯片领域,自创全球首个LPU(语言处理单元)方案,硬件称为"推理引擎"[12] - 芯片推理速度较英伟达GPU提高10倍,成本降低至十分之一,测试速度达每秒478 Tokens[14] - 解决方案支持主流开源模型,包括Meta Llama系列、DeepSeek、通义千问、Mistral、谷歌Gemini及OpenAI模型[12] - 产品提供云端服务与本地部署两种模式,本地硬件采用服务器机架式集成设计[12] 团队背景与行业定位 - 创始团队包含谷歌TPU原班人马,CEO乔纳森·罗斯曾完成第一代TPU芯片20%的研发工作[9][10] - 领导层成员具备谷歌、英特尔等知名企业任职经历[9] - 公司定位为英伟达挑战者,目标三年内超越英伟达[12] 行业竞争与市场定位 - 公司致力于打破英伟达在AI芯片制造行业的垄断地位[12] - 创始人强调推理定义了AI当前时代,公司聚焦高速低成本推理基础设施构建[3]
速递|英伟达AI 芯片挑战者Groq融资超预期,估值达69亿美元,融资总额已超 30 亿美元
Z Potentials· 2025-09-18 02:43
融资情况 - 公司完成7.5亿美元新一轮融资 投后估值达69亿美元[1] - 融资额和估值均超此前传闻 此前传闻为以近60亿美元估值筹集约6亿美元资金[1] - 本轮融资由Disruptive领投 黑石集团、Neuberger Berman、德国电信资本合伙公司等机构追加投资 三星、思科、D1和Altimeter等现有投资方参与[1] - 公司曾于2024年8月以28亿美元估值融资6.4亿美元 估值在约一年间增长超一倍[1] - 据PitchBook估算 公司迄今融资总额已超30亿美元[1] 业务与技术 - 除研发芯片外 公司还提供数据中心算力服务[1] - 与主流AI系统采用的图形处理器不同 公司将其芯片命名为语言处理单元 硬件称为"推理引擎"[1] - 产品面向开发者和企业 可作为云服务或本地硬件集群使用[2] - 本地硬件是配备集成硬件/软件节点堆栈的服务器机架[2] - 云端和本地硬件都运行Meta、DeepSeek、Qwen、Mistral、Google和OpenAI等热门模型的开源版本[2] - 产品在显著降低成本的同时保持甚至提升AI性能[3] 发展状况 - 公司致力于打破英伟达对AI芯片领域的垄断格局[1] - 目前为超过200万名开发者的AI应用提供支持 一年前这一数字仅为35.6万[3] - 创始人乔纳森·罗斯曾在谷歌开发专为机器学习任务设计的张量处理单元芯片[3] - TPU于2016年发布 至今仍为谷歌云的AI服务提供动力[3]
蚂蚁联手人大,发布MoE扩散模型
华尔街见闻· 2025-09-12 06:02
核心观点 - 蚂蚁集团与中国人民大学联合发布业界首个原生MoE架构的扩散语言模型LLaDA-MoE 在约20T数据上完成训练 性能接近或超越自回归模型Qwen2.5-3B-Instruct 并具备数倍推理速度优势 模型将完全开源 [1][2][3] 技术突破 - 采用非自回归掩码扩散机制 首次通过原生MoE架构实现与Qwen2.5相当的语言智能(上下文学习/指令遵循/代码数学推理) 挑战自回归生成范式的主流认知 [1][2] - 基于7B-A1B的MoE架构 仅激活1.4B参数即可实现等效3B稠密模型性能 在代码/数学/Agent等任务领先LLaDA1.0/1.5和Dream-7B [1][3] - 攻克负载均衡与噪声采样漂移难题 依托自研分布式框架ATorch的EP并行技术 实现工业级大规模训练的扩展性和稳定性 [2] 性能表现 - 在17项基准测试(HumanEval/MBPP/GSM8K/MATH等)平均提升8.4% 领先LLaDA-1.5达13.2% 与Qwen2.5-3B-Instruct持平 [3] - 验证"MoE放大器"定律在dLLM领域成立 为10B–100B稀疏模型提供可行路径 [3] 开源与生态 - 将完全开源模型权重及自研推理框架 深度优化dLLM并行特性 相比NVIDIA官方fast-dLLM实现显著加速 [2][3] - 相关代码与技术报告将于GitHub及Hugging Face社区同步发布 [3] 战略方向 - 公司将持续投入基于dLLM的AGI领域 联合学界与全球AI社区推动AGI新突破 [3] - 强调扩散模型可成为通向AGI的主干道 突破自回归范式的局限性 [2][3]