硅谷大佬带头弃用 OpenAI、“倒戈”Kimi K2,直呼“太便宜了”,白宫首位 AI 主管也劝不住
36氪·2025-11-04 10:50

行业趋势:从闭源模型向开源模型迁移 - 硅谷正从昂贵的闭源模型转向更便宜的开源替代方案,这一结构性转变在Reddit上引发热议[1] - 知名企业家Chamath Palihapitiya证实其团队已将大量工作负载从亚马逊Bedrock迁移至Groq平台上的中国模型Kimi K2,原因是性能显著更优且成本远低于OpenAI和Anthropic[1][5] - 行业专家David Freeberg指出AI领域正在进行全面的架构重构,目前处于每token成本优化的初期阶段,未来成本和能耗可能降低10倍至1万倍[4] 中国开源AI模型的竞争优势 - Kimi K2是由月之暗面开发的混合专家模型,总参数量达1万亿,激活参数量为320亿,已被Vercel、Cline、Cursor、Perplexity和GensparkAI等应用接入[1] - DeepSeek 3.2 EXP模型将API成本降低高达50%,每百万次输入收费28美分,每百万次输出收费42美分,而Anthropic的Claude模型收费约3.15美元,价格是DeepSeek的10到35倍[3] - 目前所有领先的开源大模型都来自中国,包括DeepSeek、Kimi和阿里巴巴的通义千问Qwen,美国在开源模型领域落后于中国[8] 模型迁移的技术挑战与成本考量 - 尽管开源模型成本优势明显,但模型迁移需要几周甚至几个月时间,因为不同模型需要经过微调与工程适配才能在同一个系统正常工作[2][6] - 企业面临复杂决策困境:是立即承受切换过程的麻烦,还是等待其他模型迎头赶上,任务越复杂这个问题越难解决[6] - 最终选择开源模型的核心是成本考量,用户选择平台纯看价格,这与上一代互联网选择云服务商的逻辑一致[14] 开源模型在美国的部署模式 - Groq接入中国模型的做法是获取模型源代码,在美国本土进行部署和分支开发,由美国人在美国数据中心操作[2][13] - 服务模式上,Groq把开源模型部署在自有基础设施上,通过开放API实现"token进、token出"的服务[2][14] - 企业喜欢这种部署方式因为可定制性强,且能将数据留在自己的基础设施里更安全[15] 行业竞争格局与地缘政治因素 - 高性能闭源模型都是美国的,高性能开源模型都是中国的,形成了中美在AI领域的技术路线差异[9] - Meta为Llama模型投入了数十亿美元,但Llama 4发布后评价不尽如人意,有消息称Meta可能放弃开源转向闭源[8] - OpenAI名字中的"Open"原本意味着开源,但现在已转向闭源,苹果在AI领域落后后推出了开源模型Open ELM[9] 能源成本对AI发展的影响 - 能源企业负责人预测电价未来五年可能翻倍,这将对AI使用成本产生重大影响[10] - 科技公司可能面临公关危机,如果电价上涨被归咎于AI能耗增加[10] - 提出了两个解决方案:让科技公司按更高费率缴纳电费进行交叉补贴,或在数据中心周边家庭安装储能设备[11]