Workflow
闭源模型
icon
搜索文档
中国“霸榜”全球开源大模型:光环下的隐忧与挑战丨人工智能AI瞭望台
证券时报· 2025-08-07 00:12
中国开源大模型崛起 - 中国开源大模型呈现"集群式"崛起,近期阿里、腾讯、智谱等公司密集开源新模型,Hugging Face榜单前十中中国占据九席 [2][4] - 阿里通义千问系列两周内开源六款模型,腾讯混元3D世界模型、智谱GLM-4.5、阶跃星辰Step-3等相继发布,形成"开源井喷潮" [4] - DeepSeek的成功被视为开源路径的标杆,推动更多中国公司转向开源策略 [4] 中美AI发展路径分化 - 中国公司普遍选择开源路线,而美国Meta等公司转向闭源,OpenAI等先发者通过闭源巩固技术壁垒 [7] - 开源模式帮助中国后发者快速建立开发者生态,通过技术透明性获取全球信任 [7][8] - 中国厂商依托中文语料库和国产算力底座(如华为昇腾)构建差异化优势,形成"数据-算力-场景"闭环 [5] 商业化探索 - 开源模型通过云服务分成(阿里)、定制化解决方案(智谱)等模式实现盈利,降低中小企业AI使用门槛 [8] - 开源加速AI在智能制造质检、金融风控等领域的落地,推动技术普及 [8] 技术挑战与隐忧 - 当前开源模型仍基于Transformer架构微调,存在"微调内卷"和同质化问题,缺乏底层架构创新 [10] - 模型迭代过快导致开发者面临接口频繁变更、密钥管理割裂等问题,适配成本激增 [10][11] - 需推动统一API标准并加强基础算法创新,避免低水平重复建设 [10][11]
谁在拆 OpenAI 的围墙?
36氪· 2025-08-06 01:41
OpenAI战略转向开源 - OpenAI突然宣布开源两款新模型gpt-oss-120b和gpt-oss-20b 这是自GPT-2以来首次重新向开源社区开放模型权重 [1] - 公司过去几年一直是"闭源派"代表 依靠GPT-3和GPT-4的技术优势建立商业壁垒 几乎垄断大模型时代的入口和定价权 [1] - 此次开源采用Apache 2 0协议 明确允许商用和二次开发 直接对标Meta的Llama模型 [3] 开源策略的深层考量 - 公司保留核心技术护城河 未开放GPT-4核心架构 仅提供中等规模模型 既不影响高端产品线又能吸引开发者 [3] - 底层代码修改受限 训练数据 优化策略和系统架构等关键要素仍由公司掌控 [3] - 通过部分开放换取生态主导权 让开发者依赖其工具链 同时通过闭源体系维持高利润业务 [4] 行业竞争格局变化 - 开源模型性能已逼近GPT-4 成本仅为1/20 采用宽松开源协议形成市场竞争压力 [2] - Anthropic采取相反策略 发布闭源模型Claude 4 1 专注企业级安全和可靠性 瞄准金融 法律等高端客户 [5][6] - AI行业进入分层竞争时代 OpenAI双轨制与Anthropic专精路线形成差异化竞争 [7] 开发者生态影响 - 新模型支持本地部署和云端扩展 兼容主流框架 大幅降低智能体开发门槛 [8] - 独立开发者可在个人设备运行接近GPT-4能力的模型 可能催生新一代AI应用创新 [8] - 开源生态正在消费端实现反超 类似Linux Firefox Android等历史案例的开源成功路径 [10] 监管与风险对冲 - 美国自2023年加强AI监管 开源模型因透明可审计的特性更易通过合规审查 [8] - 公司通过开源策略提前卡位 为未来监管环境变化做好准备 [8] - 技术流动性和生态开放性成为行业新竞争维度 [10]
对话PPIO姚欣:AI大模型赛道加速内卷,但合理盈利路径仍需探索
钛媒体APP· 2025-08-05 02:23
公司业务与定位 - PPIO是一家独立分布式云计算服务商 专注于边缘云计算和AI云计算服务 在中国独立边缘云计算服务商中排名第一 市场份额为4.1% [4][14] - 公司运营中国最大的算力网络 按计算节点数计 在中国边缘云计算服务提供商中排名第七 [4] - PPIO在IaaS PaaS MaaS三层都具备相应技术能力 为国内外领先科技公司提供服务 包括中国前十大互联网公司的大部分 [14] - 公司正式发布国内首个Agentic AI基础设施服务平台 包括兼容E2B接口的Agent沙箱和模型服务 支持百款主流开源与定制AI模型的快速接入 [5] 技术优势与创新 - 对DeepSeek-R1模型进行优化 采用PD分离等创新分布式计算技术 使吞吐量提高10倍以上 理论运营成本降低高达90% [4] - 通过算子融合 低精度量化及投机采样等技术 将模型输出效率提高7倍以上 理论运营成本降低85.7% [4] - 具备很强的调度能力 融合能力 模型优化 底层算子等技术能力 能提升GPU资源利用率 [14] - 研发国内首款兼容E2B接口的Agent沙箱 专为Agent执行任务设计 在云端环境运行 [5] 市场表现与增长 - AI云计算服务增长迅速 日均token消耗量从2024年12月的271亿次增至2025年6月的2000亿次 在中国独立AI云计算服务供应商中位列前两名 [5] - 公司于2025年6月正式向港交所提交上市招股书 启动IPO上市之路 [5] 行业观点与趋势 - AI Infra基础设施领域是非常低毛利 海量规模 长周期的市场 类比水电气煤等公共基础设施 [6][17] - 未来AI算力需求将从训练转向推理 从中心化架构转向分布式架构 推理计算卡将百花齐放 [7][18] - 推理算力占比将达到95% 训练只占5% 大量数据中心需要分布式以及海量的推理优化 [22] - 开源模型对于AI行业发展更有利 能让AI Infra公司有更多发展机遇 [6][10] 算力架构发展 - 中国AI算力底层做算力网络 东数西算 在算力调度和整合方面具有优势 类似高铁网和电力调度网 [22] - 美国算力底层在做星际之门 堆20万张卡 但面临散热 能耗 电网冲击等挑战 [22] - 训推一定会分离 训练集群和推理集群将是两个集群 目前训推一体是为了训练削峰填谷 [22] 应用场景拓展 - 边缘云和AI推理云业务将融合 满足云边端不同需求 特别是机器人 自动驾驶等对低时延有要求的场景 [25][26] - 机器人 自动驾驶的实时计算需要毫秒级处理速度 只能使用本地化算力 [24] - 复杂任务如任务拆解 推理 形成代码等需要至少30B参数规模 且Agent会运行在云端 [25] 硬件与软件协同 - 国产算力卡在推理时代迎来发展机会 特别是加了PD分离架构之后 [20] - 硬件软件快速迭代 良性结合推动AI时代加速 端到端垂直整合能力越来越重要 [20] - 多卡融合 多卡兼容解决方案成为普遍趋势 以应对AI芯片卡脖子风险 [21]
大模型年中报告:Anthropic 市场份额超 OpenAI,开源模型企业采用率下降
Founder Park· 2025-08-04 13:38
基础大模型发展趋势 - 基础大模型正成为生成式AI核心引擎并重塑计算未来 其能力与成本控制的演进将推动系统 应用及产业格局变革 [2] - 模型API支出在6个月内从35亿美元增长至84亿美元 企业重心从训练微调转向模型推理 标志阶段性转折 [2] - 代码生成成为首个大规模爆发的AI应用场景 基础模型能力升级路径新增"带验证器的强化学习"(RLHF with verifiers) [2] 市场竞争格局变化 - Anthropic以32%企业使用率超越OpenAI(25%)和Google(20%) 成为市场新领跑者 Meta Llama占9% DeepSeek仅1% [9] - Anthropic崛起始于2024年6月Claude Sonnet 3 5发布 2025年系列版本(Claude Sonnet 3 7/4 Opus 4 Claude Code)巩固领先地位 [12] - 企业投入集中流向少数高性能闭源模型 开源采用趋势因前沿突破放缓而减弱 [3] Anthropic成功驱动因素 - 代码生成领域占据42%市场份额(OpenAI为21%) 催生19亿美元生态系统及AI IDE 应用构建工具等新形态产品 [13][14] - 采用带可验证奖励的强化学习(RLVR)突破数据瓶颈 成为提升模型可靠性与实际能力的关键路径 [15] - 率先实现Agent范式突破 通过多轮自我优化及工具调用提升模型执行力 2025年被称为"Agent之年" [16] 开源模型发展现状 - 开源模型运行任务占比从19%降至13% Meta Llama仍领先但Llama 4表现未达预期 [17] - 中国公司贡献突出开源模型(DeepSeek 字节跳动 阿里巴巴等) 但性能落后前沿闭源模型9-12个月 叠加部署复杂度导致份额停滞 [17][20] - 开源吸引力在于定制化 成本优势及私有化部署 但初创企业生产负载正加速转向闭源 [20] 企业模型选择行为 - 66%开发者选择原供应商升级 仅11%切换供应商 性能(非价格)是核心决策因素 [24][27] - 性能优先逻辑下 旧模型即使降价十倍也无法挽回用户 Claude 4发布一个月内即抢占45%用户 [27][30] - AI支出从训练转向推理 初创企业推理任务占比从48%升至74% 近半数企业主要计算任务由推理驱动 [31]
刚刚,扎克伯克发文正式告别“默认开源”!网友:只剩中国 DeepSeek、通义和 Mistral 还在撑场面
猿大侠· 2025-07-31 04:09
Meta的AI战略转向 - 公司调整AI模型发布策略,从"默认开源"转向"选择性开源",以推动"个人超级智能"愿景[1][6] - 扎克伯格强调需谨慎管理超级智能带来的安全挑战,并慎重考虑开源内容[1][4] - 公司此前曾承诺开源Llama后续模型,但2025年表态显示开源不再是尖端模型的默认选项[2][6] 开源策略的演变 - 2024年公司立场为"开源AI对行业至关重要",2025年转变为"严谨应对风险,选择性开源"[2][6] - 公司未承诺开源所有成果,若模型能力质变且开源不负责任则保留闭源权利[4] - Llama系列此前被视作区别于OpenAI等对手的关键优势,但最新表态削弱了这一定位[1][6] 商业与竞争动态 - 公司斥资143亿美元投资Scale AI并重组AI部门为"Meta Superintelligence Labs",集中资源开发闭源模型[11][12] - 闭源策略部分源于竞争压力,公司为击败GPT-4而暂停开源模型Llama Behemoth的开发[12][13] - 主要收入依赖广告而非模型销售,此前认为开源不影响营收,但竞争落后促使策略调整[12] 技术布局与产品方向 - 新组建的超级智能团队在隔离办公区研发闭源模型,目标直指AGI[13][14] - 计划通过AR眼镜、VR头显等硬件推广"个人超级智能",强调情境感知设备的计算主导地位[14] - 发言人表示未来将并行训练开源与闭源模型,但最先进模型可能不再开源[14][15] 行业影响 - Meta态度转变导致全球开源SOTA模型主力转向中国公司如DeepSeek、通义千问和Mistral[9][10] - DeepSeek-R1的成功激励中国公司坚持开源,而Llama4失利促使Meta降低开源优先级[9] - 行业不确定性增加,闭源模式因商业控制力受竞争对手青睐,开源阵营期待中国公司填补空缺[6][9]
开源Qwen一周连刷三冠,暴击闭源模型!基础模型推理编程均SOTA
量子位· 2025-07-26 05:06
模型性能突破 - 通义千问开源Qwen3-235B-A22B-Thinking-2507推理模型,在MMLU-Pro(84.4)、GPQA(81.1)、AIME25(92.3)等基准测试中超越DeepSeek-R1和OpenAI o4-mini,登顶开源SOTA [3][10][12][15] - 新模型在"人类最后考试"HLE测试得分从11.8提升至18.2,超越DeepSeek-R1(17.7)和o4-mini高性能模式(18.1) [13][14] - 支持256K原生上下文,在逻辑推理、数学、编码等复杂任务中性能显著提升,编程能力超越Gemini-2.5 Pro等闭源标杆 [16][17] 开源战略布局 - 一周内连续开源Qwen3基础模型(235B参数)、Qwen3-Coder编程模型和Qwen3-235B推理模型,形成技术矩阵 [6][22][26] - Qwen3-Coder在SWE-bench测试中达到69.6分,超越Claude Sonnet 4(70.4)和DeepSeek-V3(38.8),刷新AI编程SOTA [26][27] - 基础模型Qwen3-235B-A22B-Instruct-2507在GPQA、LiveCodeBench等12项测评中超越Claude4非思考版,登顶开源第一 [32] 市场影响与行业地位 - 通义千问API调用量突破1000亿Tokens,在OpenRouter平台包揽全球前三热门模型 [31] - 阿里已开源300余款大模型,通义千问衍生模型突破14万个,超越Llama成为全球最大开源模型家族 [37] - 公司计划未来三年投入3800亿元建设AI基础设施,持续升级全栈能力 [38] 中国开源生态崛起 - DeepSeek、Qwen、Kimi等中国开源模型引领全球风潮,在Llama4表现不佳后成为行业新标杆 [34][35] - 中国开源模型发展速度被黄仁勋公开认可,技术差距与闭源模型快速缩小 [36][39] - 开源三连击战略使中国AI技术首次实现在基础模型、编程模型、推理模型三个维度同时达到世界前沿水平 [7][33][37]
DeepSeek终于丢了开源第一王座。。。
自动驾驶之心· 2025-07-19 10:19
模型排名与表现 - Kimi K2在全球开源模型中排名第一,总榜排名第五,紧追马斯克Grok 4等顶尖闭源模型 [3] - 在总榜TOP 10中,Kimi K2得分为1420,与Grok 4(1437)和GPT 4.5(1437)差距较小 [4][26] - 唯二进入总榜TOP 10的开源模型均来自中国,包括Kimi K2(第5)和DeepSeek R1(第8) [4][26] 技术架构与优化 - Kimi K2继承了DeepSeek V3的架构,并进行了四项关键参数调整:增加专家数量、注意力头数减半、仅保留第一层Dense、专家无分组 [17] - 调整后总参数增至1.5倍,但推理耗时更小,成本控制优于V3架构 [18] - 团队选择完全继承V3架构的原因包括已验证的可靠性和有限的训练资源 [13] 市场热度与社区反响 - Kimi K2发布一周内GitHub标星达5.6K,Hugging Face下载量近10万 [6] - Perplexity CEO公开支持K2,计划基于该模型进行后训练 [8] - 用户访问量激增导致官方发布公告应对流量压力 [9] 开源模型趋势 - 开源模型性能已接近闭源模型,TOP 10分数均超过1400,差距显著缩小 [24][26] - 行业专家如Tim Dettmers和Perplexity CEO认为开源模型将逐步超越闭源,并在AI全球化中发挥关键作用 [28][30] - 开源社区对Kimi K2的编程能力(第二)、复杂提示词处理能力(第二)等单项表现给予高度评价 [7]
DeepSeek终于丢了开源第一王座,但继任者依然来自中国
量子位· 2025-07-18 08:36
模型排名与性能 - Kimi K2在全球开源模型中排名第一,总榜第五,紧追Grok 4等顶尖闭源模型 [1] - Kimi K2得分为1420,与Grok 4(1437)和GPT 4.5(1437)差距较小 [2][23] - 唯二进入总榜TOP 10的开源模型均来自中国(Kimi K2和DeepSeek R1) [2][28] 技术能力表现 - 连续多轮对话能力并列第一,与Grok 4和o3持平 [3] - 编程能力排名第二,与GPT 4.5和Grok 4相当 [3] - 应对复杂提示词能力排名第二,与o3和4o同梯队 [3] 社区热度与影响力 - GitHub标星达5.6K,Hugging Face下载量近10万 [5] - Perplexity CEO公开站台,计划基于K2进行后训练 [5] - 用户访问量过大导致API响应变慢 [6] 架构设计与优化 - 继承DeepSeek V3架构,但进行了参数调整 [9][12] - 增加专家数量,MoE总参数增加但激活参数量不变 [13] - 注意力头数减半以平衡成本,效果影响微小 [13] - 仅保留第一层Dense,其余使用MoE,推理效率无影响 [13] - 专家无分组设计,通过自由路由提升灵活性 [13] - 总参数增至1.5倍,但推理耗时更小且成本可控 [15] 行业趋势与观点 - 开源模型性能已接近闭源,TOP 10分数均超1400 [21][23] - 开源与闭源差距缩小,Kimi K2接近Grok 4和GPT 4.5 [22] - 行业人士认为开源击败闭源将更普遍 [25][27] - 开源模型在AI能力全球扩散中扮演关键角色 [27]
互联网女王报告揭秘硅谷现状:AI指数级增长,中国厂商在开源竞争中领先 | 企服国际观察
钛媒体APP· 2025-06-11 02:33
人工智能发展速度 - ChatGPT仅用17个月突破8亿用户,远超互联网时代任何产品的增长速度 [3] - ChatGPT不到三个月达到1亿用户,截至今年4月每周用户量达8亿,每年处理超过3650亿次搜索 [8] - 人工智能相关职位空缺自2018年起增长448%,显示行业对人才的强劲需求 [19] 技术成本与效率 - 模型训练成本高达10亿美元,但推理成本在两年内下降99%(按每百万token计算) [4] - 2022年至2024年期间,运行大语言模型的每个token成本下降99.7% [17] - 英伟达2024年Blackwell GPU的单位功耗较2014年Kepler GPU降低10.5万倍 [4][14] 开源与闭源模型竞争 - 闭源模型(如GPT-4、Claude)性能卓越但缺乏透明度,受企业和政府机构青睐 [6] - 开源模型(如Llama、Mixtral)低成本且功能增强,推动主权AI和本地语言模型发展 [10][13] - 中国在开源竞赛中领先,2025年将发布DeepSeek-R1、阿里巴巴Qwen-32B和百度Ernie 4.5 [12] 市场与应用 - 印度成为AI平台重要市场,贡献ChatGPT移动应用用户的13.5%,超过美国的8.9% [10] - AI应用拓展至汽车驾驶、工厂机器人、医疗保健等领域,成为职业"副驾驶" [18] - 行业从垂直SaaS转向横向整合,如微软集成Copilot、Zoom和Canva融入生成式AI [21] 基础设施与投资 - 云端芯片(谷歌TPU、亚马逊Trainium)规模化开发推动AI基础设施快速迭代 [7] - 风险投资加速流入AI领域,但企业与云服务商仍需高额基础设施投入 [7] - 全球范围内针对芯片、数据中心的争夺战激烈,堪比冷战时期太空竞赛 [21]
最新必读,互联网女皇340页AI报告解读:AI岗位暴涨,这些职业面临最大危机
36氪· 2025-06-03 13:32
AI行业趋势 - ChatGPT仅用2个月达到1亿用户,17个月后月活增至8亿,订阅用户超2000万,年营收近40亿美元,成为商业化速度最快的AI产品[5][6] - 2024年AI相关资本支出达2120亿美元,同比增长63%,为十年内最高[6][11] - AI模型训练成本8年内暴涨2400倍,单个模型训练成本可能在2025年达10亿美元,未来或突破100亿美元[6][20] - 开源模型如DeepSeek、Qwen等在推理和编程能力上已逼近顶级闭源模型[36][37] 基础设施投资 - 苹果、英伟达、微软、Google、亚马逊、Meta等科技巨头2024年AI相关资本支出达2120亿美元[11] - 英伟达占据数据中心投资预算的25%,成为AI浪潮最大受益者[12] - 英伟达GPU推理单个Token能耗10年间下降约105000倍,有利于规模化部署[27] 技术发展 - AI在图灵测试中表现超越人类,GPT-4.5被73%测试者误认为人类[43][46] - Midjourney图像生成质量从v1到v7显著提升,达到商品级水平[50] - ElevenLabs语音克隆技术月访问量从0飙升至2000万,音色克隆+实时翻译趋近商用级别[57] 应用场景 - Waymo自动驾驶出租车在旧金山市场份额已达1/3[59] - AI相关岗位2018-2025年增长448%,传统IT岗位需求下降9%[67][69] - AI Agent成为新型数字劳动力,能执行多步骤任务如在线购物、界面导航等[72][74] 区域发展 - 美国发布超100个训练计算量超10²³ FLOPs的大语言模型,中国紧随其后不断缩小差距[40] - ChatGPT北美之外用户普及率超90%,呈现全球同步爆发特征[9]