融资与估值 - 公司完成新一轮7.5亿美元融资,估值达约69亿美元 [1] - 最新融资额与估值均高于7月传闻的60亿美元估值和约6亿美元融资额 [1] - 公司在2024年8月以28亿美元估值融资6.4亿美元,最新估值在一年内翻了两倍多 [1] - 公司今年迄今累计融资超过30亿美元,融资规模堪比Anthropic等AI超级独角兽 [1] - 新一轮融资由投资公司Disruptive领投,BlackRock、Neuberger Berman、Deutsche Telekom Capital Partners等参投,三星、思科等现有投资者也参与 [4][5] 公司定位与技术路线 - 公司是英伟达在AI芯片领域的主要竞争对手之一,市场规模可能仅次于博通与AMD [1] - 公司业务聚焦于向数据中心及企业平台销售AI芯片集群,与英伟达数据中心业务类似 [1] - 公司开发LPU(语言处理单元),是专为AI大模型推理场景定制的AI ASIC,而非通用GPU [1][2] - 技术路线与博通AI ASIC以及谷歌TPU属于同类,产品被归类为定制推理ASIC [1][2] - 公司致力于打破英伟达对AI算力基础设施的控制,英伟达当前市场份额高达90% [2] 产品与市场应用 - 产品面向开发者和企业,可作为云计算算力服务或本地部署的硬件集群提供 [2] - 本地硬件聚焦于AI服务器机架,配备集成硬件/软件节点的堆栈 [2] - 云端与本地硬件均可运行Meta、DeepSeek、Qwen、Mistral、Google和OpenAI等开发的AI模型 [2] - 公司目前为超过200万名开发者的AI应用提供算力支持,一年前该数字约为35万 [4] - LPU产品在成本显著低于核心替代方案的情况下,能保持或提升AI大模型推理运行效率 [2] 技术架构与性能优势 - LPU核心架构是自主开发的TSP(张量流式处理器),以静态、可预测的流式数据通路替代传统GPU范式 [5] - LPU芯片采用大容量片上SRAM(约220MB),具备超高片上带宽(官方示例达80TB/s) [5][6] - 在低/零批量LLM推理中,LPU相较AI GPU集群提供更低时延、更稳定吞吐与更高能效 [5] - 在batch很小(甚至batch=1)的LLM场景,LPU单位芯片的tokens/s更高,能满足交互式产品对低延迟的要求 [6] - LPU确定性执行带来平滑功耗曲线,推理每token能耗更低,等效推理功耗约为常见GPU的三分之一 [6] 行业竞争格局与发展趋势 - 创始人Jonathan Ross曾参与开发谷歌TPU芯片,谷歌TPU算力集群在数据中心规模仅次于英伟达 [3] - 谷歌最新Ironwood TPU(TPU v6)相比TPU v5p峰值FLOPS性能提升10倍,功效比提升5.6倍 [3] - 谷歌Ironwood的4.2 TFLOPS/瓦功效比略低于英伟达B200/300 GPU的4.5 TFLOPS/瓦,表明专用AI ASIC正快速缩小与领先AI GPU的性能差距 [4] - 对于AI大模型训练和超大批量吞吐,英伟达AI GPU生态仍全面占优,LPU优势主要在交互式/实时推理 [6][7] - 科技巨头愈发倾向采用“ASIC扛常态化、GPU扛探索峰值”的混合架构来最小化总拥有成本(TCO) [7]
LPU推理引擎获资金认可! 正面硬刚英伟达的Groq估值猛增 一年内几乎翻三倍