Workflow
DeepSeek 3.2 EXP
icon
搜索文档
硅谷大佬带头弃用 OpenAI、“倒戈”Kimi K2,直呼“太便宜了”,白宫首位 AI 主管也劝不住
36氪· 2025-11-04 10:50
行业趋势:从闭源模型向开源模型迁移 - 硅谷正从昂贵的闭源模型转向更便宜的开源替代方案,这一结构性转变在Reddit上引发热议[1] - 知名企业家Chamath Palihapitiya证实其团队已将大量工作负载从亚马逊Bedrock迁移至Groq平台上的中国模型Kimi K2,原因是性能显著更优且成本远低于OpenAI和Anthropic[1][5] - 行业专家David Freeberg指出AI领域正在进行全面的架构重构,目前处于每token成本优化的初期阶段,未来成本和能耗可能降低10倍至1万倍[4] 中国开源AI模型的竞争优势 - Kimi K2是由月之暗面开发的混合专家模型,总参数量达1万亿,激活参数量为320亿,已被Vercel、Cline、Cursor、Perplexity和GensparkAI等应用接入[1] - DeepSeek 3.2 EXP模型将API成本降低高达50%,每百万次输入收费28美分,每百万次输出收费42美分,而Anthropic的Claude模型收费约3.15美元,价格是DeepSeek的10到35倍[3] - 目前所有领先的开源大模型都来自中国,包括DeepSeek、Kimi和阿里巴巴的通义千问Qwen,美国在开源模型领域落后于中国[8] 模型迁移的技术挑战与成本考量 - 尽管开源模型成本优势明显,但模型迁移需要几周甚至几个月时间,因为不同模型需要经过微调与工程适配才能在同一个系统正常工作[2][6] - 企业面临复杂决策困境:是立即承受切换过程的麻烦,还是等待其他模型迎头赶上,任务越复杂这个问题越难解决[6] - 最终选择开源模型的核心是成本考量,用户选择平台纯看价格,这与上一代互联网选择云服务商的逻辑一致[14] 开源模型在美国的部署模式 - Groq接入中国模型的做法是获取模型源代码,在美国本土进行部署和分支开发,由美国人在美国数据中心操作[2][13] - 服务模式上,Groq把开源模型部署在自有基础设施上,通过开放API实现"token进、token出"的服务[2][14] - 企业喜欢这种部署方式因为可定制性强,且能将数据留在自己的基础设施里更安全[15] 行业竞争格局与地缘政治因素 - 高性能闭源模型都是美国的,高性能开源模型都是中国的,形成了中美在AI领域的技术路线差异[9] - Meta为Llama模型投入了数十亿美元,但Llama 4发布后评价不尽如人意,有消息称Meta可能放弃开源转向闭源[8] - OpenAI名字中的"Open"原本意味着开源,但现在已转向闭源,苹果在AI领域落后后推出了开源模型Open ELM[9] 能源成本对AI发展的影响 - 能源企业负责人预测电价未来五年可能翻倍,这将对AI使用成本产生重大影响[10] - 科技公司可能面临公关危机,如果电价上涨被归咎于AI能耗增加[10] - 提出了两个解决方案:让科技公司按更高费率缴纳电费进行交叉补贴,或在数据中心周边家庭安装储能设备[11]
硅谷大佬带头弃用OpenAI、“倒戈”Kimi K2,直呼“太便宜了”,白宫首位AI主管也劝不住
36氪· 2025-10-28 10:39
行业趋势:从闭源模型向开源模型迁移 - 硅谷正从昂贵的闭源模型转向更便宜的开源替代方案,这一结构性转变引发热议[1] - 知名企业家Chamath Palihapitiya证实其团队已将大量工作负载从亚马逊云科技Bedrock迁移至Groq平台上的中国模型Kimi K2,原因是性能更优且成本显著更低[1][5] - 行业观点认为性能和成本正在改写AI堆栈游戏,有评论称OpenAI可能未预见到这种情况的发生[2] 成本优势:中国开源模型的竞争力 - DeepSeek 3.2 EXP模型将API成本降低高达50%,收费标准为每百万次输入28美分,每百万次输出42美分[3] - Anthropic的Claude模型同类服务收费约3.15美元,价格是DeepSeek新模型的10到35倍[3] - 成本考量是切换到开源模型的核心原因,Palihapitiya表示既付不起3美元一个输出token的费用,也承担不起后续其他成本[2][11] - 多家初创公司正在测试或已投入使用DeepSeek模型,主要原因就是价格优势明显[3] 技术部署与运营模式 - Groq接入中国模型的做法是获取模型源代码,在美国本土数据中心进行部署和分支开发,由美国人操作[2][13] - 服务模式通过开放API实现"token进、token出",与OpenAI、ChatGPT等闭源模型模式相同但成本更低[2][14] - 企业可以选择在自有基础设施上运行模型,确保数据留在自己基础设施内,增强安全性[15] - 模型切换存在技术挑战,需要几周甚至几个月时间进行微调与工程适配,不同模型间的优化调整无法直接迁移[2][6] 中美AI产业竞争格局 - 当前所有领先的开源大模型都来自中国,包括DeepSeek、Kimi和阿里巴巴的通义千问Qwen[8] - 美国在闭源模型、芯片设计、芯片制造、半导体制造设备及数据中心环节领先,但开源模型领域落后于中国[8] - 高性能闭源模型都是美国的,高性能开源模型都是中国的,形成明显的地域技术路线分化[9][10] - Meta为Llama模型投入数十亿美元,但Llama 4发布后评价不尽如人意,有消息称Meta可能放弃开源转向闭源[8] 模型性能与技术特点 - Kimi K2是由月之暗面开发的混合专家大型语言模型,总参数量达1万亿,激活参数量为320亿[1] - DeepSeek 3.2 EXP模型搭载DSA功能,能加快大型任务的训练与推理速度[3] - 多家知名平台已接入Kimi K2模型,包括Vercel、AI编码助手Cline和Cursor、Perplexity和GensparkAI应用[1] 能源成本与未来发展 - 能源行业预测电价未来五年可能翻倍,这将使AI成本问题转化为能耗问题[10] - 未来架构革新可能让成本和能耗降低10倍到1万倍,对模型能耗需求和每token成本产生重大影响[4][5] - 提出交叉补贴方案,让科技公司按更高费率缴纳电费,由拥有数千亿现金流的科技巨头承担成本压力[11]
硅谷大佬带头弃用 OpenAI、“倒戈”Kimi K2!直呼“太便宜了”,白宫首位 AI 主管也劝不住
AI前线· 2025-10-28 09:02
硅谷AI模型使用趋势转变 - 硅谷正从昂贵的闭源模型转向更便宜的开源替代方案,这一趋势在Reddit上引发热议[2] - 知名投资人Chamath Palihapitiya透露其团队已将大量工作负载从Bedrock迁移至Groq平台上的中国模型Kimi K2,原因是性能显著更优且成本远低于OpenAI和Anthropic[2][6] - 多家知名技术平台如Vercel、Cline、Cursor、Perplexity和GensparkAI已宣布接入Kimi K2模型[2] Kimi K2模型技术特点 - Kimi K2是由月之暗面团队开发的混合专家大型语言模型,总参数量达1万亿,激活参数量为320亿[2] - 该模型采用Groq平台部署,通过开放的API实现"token进、token出"的服务模式[3] DeepSeek模型成本优势 - DeepSeek 3.2 EXP模型将API成本降低高达50%,收费标准为每百万次输入28美分,每百万次输出42美分[5] - 相比之下,Anthropic的Claude模型同类服务收费约3.15美元,价格是DeepSeek新模型的10到35倍[5] - 该开源模型已在亚马逊云科技和谷歌云平台上可用,多家初创公司正在测试或已投入使用[5] 模型迁移的技术挑战 - 将工作负载从一个模型切换到另一个模型需要几周甚至数月时间,因为模型需要经过微调与工程适配才能在同一个系统正常工作[3][7] - AI模型迭代速度快,用户面临是否承受迁移麻烦或等待其他模型迎头赶上的复杂博弈[7] 中美AI开源领域竞争格局 - 当前高性能闭源模型主要来自美国,而高性能开源模型主要来自中国,形成结构性竞争[11] - 中国在开源AI模型领域投入力度大,代表作品包括DeepSeek、Kimi和阿里巴巴的通义千问Qwen[10] - 美国在闭源模型、芯片设计、芯片制造、半导体制造设备和数据中心等其他技术环节保持领先[10] 开源模型部署与安全考量 - Groq接入中国模型的做法是获取模型源代码,在美国本土数据中心进行部署和分支开发,由美国人操作[3][16] - 企业可将开源模型部署在自有基础设施上,实现数据本地化,避免数据传回中国的风险[15][18] - 模型安全通过社区竞争循环保障,各大安全公司和云服务商积极测试寻找漏洞[18] AI发展面临的能源挑战 - 能源企业负责人预测未来五年电价可能翻倍,这将直接影响AI运营成本[12] - 科技公司可能面临更高的电费费率,通过"交叉补贴"方式承担数据中心能耗成本[13] - 成本问题将逐渐转化为能耗问题,对科技巨头构成潜在公关危机[12]