MoE (Mixture of Experts)
搜索文档
最新英伟达经济学:每美元性能是AMD的15倍,“买越多省越多”是真的
量子位· 2026-01-01 04:15
不算不知道,一算吓一跳: 在英伟达平台每花一美元,获得的性能是AMD的15倍 。 尽管英伟达卖的更贵,但只要买齐一套,就更省钱。 梦晨 发自 凹非寺 量子位 | 公众号 QbitAI 为什么AI算力霸主永远是英伟达? 来自 Signal65 的一份最新详尽报告揭示了这个现实,一定条件下生成同样数量的token,英伟达的成本只有AMD的十五分之一。 这份报告基于SemiAnalysis Inference MAX的公开基准测试数据,时间跨度从2025年10月到12月,覆盖了从密集模型到前沿MoE推理模型 的全场景测试。 黄仁勋的"买的越多,省的越多"原来是真的。 MoE时代:8卡系统撞上Scaling天花板 AI模型正在经历一场架构革命,打开Artificial Analysis排行榜就会发现,智能度排名前十的开源模型清一色都是MoE (Mixture of Experts,专家混合) 推理模型。 另一项来自OpenRouter的数据显示,超过50%的token流量正在被路由到推理模型上。 MoE架构的核心思路是把模型参数拆分成多个专门化的"专家"子网络,每个token只激活其中一小部分。 以经典的DeepSe ...