Scaling Law
搜索文档
Dario Amodei:账面亏损?大模型照样生钱!
机器之心· 2025-08-18 09:22
01 账面巨亏≠亏钱,Dario Amodei 详解「拆模型看盈利」的 AI 生意经 - 传统财报视角中研发支出与亏损被视为业务状况恶化的标志,但 Anthropic 联合创始人提出整体亏损可能掩盖单个模型在其生命周期内的盈利能力,需将每一代模型视为独立「盈利单元」才能评估真实业务健康状况 [5] - 未来 AI 市场将形成 3-6 家同时拥有前沿技术与雄厚资本的超级巨头鼎立格局,技术资本缺一不可 [5] - 模型训练存在资本循环:2023 年投入 1 亿美元训练模型,2024 年产生 2 亿美元收入;2024 年投入 10 亿美元训练下一代模型,2025 年产生 20 亿美元收入,传统损益表会显示亏损持续扩大但实际单代模型盈利 [6][7] - 每代模型应视为独立「初创公司」,前期投入巨大但生命周期内盈利,公司整体因持续研发而账面亏损 [9] - AI 资本周期类似制药巨头管线策略:成功模型触发指数级加注(如 10 倍投入),失败则一次性减值 [9] - 模型训练时机取决于上一代模型数据表现而非固定时间表,Scaling Law 生效时客户愿为 10 倍能力提升支付 10 倍价格 [10][11] - 核心风险并非烧钱速度而是增长极限,只要 Scaling Law 持续生效,资本循环将推动规模利润扩张直至成为终局巨头 [12] 02 当模型从「本科生」跳到「博士生」,客户凭什么立刻掏 10 倍价钱 - 大模型能力跃升引发「资本主义冲动」:技术能力与市场支付意愿的指数关系自然驱动资金、算力、数据投入,形成自增强循环 [13] - 增长兑现内生于模型能力与市场反馈的指数关系,非单纯商业计划结果 [13] 03 为什么真正的 AI 原生界面尚未出现 (注:原文未提供具体内容,仅保留目录标题)
这些公司想在这里“狙击”英伟达
虎嗅· 2025-08-18 06:22
AI推理市场爆发增长 - AI推理芯片市场2023年规模158亿美元 预计2030年达906亿美元 年复合增长率显著[3] - AI推理成本在18个月内从每百万token 20美元降至0.07美元 降幅达280倍[3] - 企业AI硬件成本每年下降30% 能源效率每年提升40%[3] 训练与推理特性对比 - 训练阶段成本高昂且周期长 需强大算力支撑 具有一次性特征[2] - 推理阶段是AI技术实战环节 负责将训练模型转化为实际生产力[2] - 生成式AI时代基础模型训练趋向稳定 推理成为持续创造价值的关键环节[2] 推理市场商业价值 - AI推理工厂平均利润率普遍突破50% 英伟达GB200方案利润率达77.6%[5] - 英伟达数据中心40%收入源自推理业务[3] - 推理服务通过向用户收取服务费实现盈利 形成商业收入良性循环[3] 技术变革驱动因素 - Transformer架构使基础模型训练固化 降低重复训练成本[2] - 算法优化技术(量化/稀疏化/蒸馏)降低模型计算复杂度和内存需求[4] - MOE架构出现使新信息只需局部训练 推动推理市场爆发[4] 竞争格局变化 - 科技巨头通过自研芯片降低对英伟达依赖 AWS向客户提供自研推理芯片并给予25%折扣[6] - OpenAI租用谷歌TPU降低推理成本及对英伟达依赖[8] - 推理对CUDA生态依赖较小 可使用CPU/边缘设备/WebGPU等多样化平台[6] 初创公司突围策略 - 25家AI芯片初创公司累计融资超70亿美元 总估值达290亿美元[10] - Rivos开发翻译软件将CUDA代码转换为自有芯片语言 降低用户迁移成本[9] - Groq开发专用语言处理单元 提供远低于GPU的token处理成本解决方案[10] 细分市场机会 - 边缘侧推理需求爆发 智能家居与穿戴设备催生海量应用场景[11] - 中东等英伟达渗透率较低市场存在发展机遇 Groq与沙特达成15亿美元芯片合作[10] - 专用芯片(ASIC)在特定推理任务中展现卓越性能优势[9] 行业技术路线争议 - Scaling Law技术路线是否通向通用人工智能存在争议 Meta首席科学家质疑其局限性[12] - 英伟达依靠"算力越大越好"的暴力美学兜售GPU 但技术路径可持续性存疑[12]
AI产品们,有哪些“反常识”趋势?
虎嗅· 2025-08-17 14:30
行业趋势 - AI行业经历爆发式增长后出现部分下滑,进入新阶段 [4] - 通用大模型挤压垂直工具生存空间,AI写作与内容工具赛道流量下降12%,AI角色陪伴聊天赛道下降8% [5] - 视频生成类产品涨幅从20%降至1%,Heygen、Typecast保持增长,快手可灵使用量下降 [6] - 旅行类产品Mindtrip三个月增长153%,工作流自动化工具Zapier、n8n加速增长 [7] - 国内AI产品"插件化"成为主流,平均每个集成AI的App含2.1个AI功能,夸克AI搜索优化后用户月均点击65次 [8] 市场分化 - 国内移动端AI活跃用户总量6.8亿,原生App增长缓慢,PC网页端仅1.8亿用户且70%负增长 [9] - Kimi、猫箱、文小言等AI综合助手和社交应用成流失重灾区,DeepSeek流失用户中超一半转向百度 [10] - 传统教育科技流量大幅下滑,Quora流量同比下降50% [11] - OpenAI占据绝对流量份额,DeepSeek和Grok年初增长迅猛但后期回落,Grok 4推出后恢复增长 [19][20] 垂直赛道表现 - AI角色聊天赛道整体流量半年内下降8%,头部产品Character.ai同期下降8%,Chai剧烈波动 [28] - AI写作赛道12周内下降12%,Jasper、Wordtune等工具下滑,通用模型自带写作功能冲击专用工具 [33][34] - 图像生成赛道总流量下降2%,Midjourney增长33%但Leonardo、Ideogram等下滑 [36] - 视频生成头部产品Heygen年增50%,音频生成头部Elevenlabs增速放缓,音乐生成产品普遍下降 [37][38][39] 国内AI形态分化 - 67.4%原生AI App上半年负增长,包括OPPO小布助手、vivo蓝心小V、百度文小言等 [48][49] - 插件形态AI推动增长,74.5%保持正增长,百度AI、抖音AI搜索等亿级规模产品增长显著 [50][51] - AI搜索和AI综合助手成国内两大支柱领域,月活分别达6.85亿和6.12亿 [54] - DeepSeek流失用户56%转向百度,42%流向QQ浏览器,印证AI搜索为核心需求场景 [58] 行业反思 - 规模定律(Scaling Law)可能失效,AI发展速度放缓,需调整期待和策略 [62][63] - 行业转向关注实用性和细节体验,创新将更复杂多元,真正有用的AI才能留存 [66][67][68]
LLM+Tool Use 还能撑多久?下一代 AI Agent 在 self-evolving 的技术探索上行至何方?
机器之心· 2025-08-17 01:30
LLM+Tool Use与Self-Evolving AI Agent技术探索 - 当前AI技术处于矛盾阶段:LLM通过海量数据训练实现能力突破,但静态模型无法在动态交互环境中实时自我调整[6] - 自进化智能体研究成为焦点,2025年4月ICLR首次设立基础模型自我改进能力研讨会,探讨通过生成合成数据提升模型性能[7] - 自进化范式涉及基础模型、强化学习、在线学习和认知神经科学等多领域交叉,存在巨大潜力但尚未解决根本性问题[8] - 研究框架围绕三个核心维度:进化对象(模型/上下文/工具集/架构)、进化时机(测试内/测试间)、进化方法(三大范式)[9][10] - 进化方法三大范式包括基于奖励的进化、模仿与演示学习、种群与演化方法,实际应用中常混合使用[10] AI互联网时代的商业变现与巨头竞争 - AI应用公司面临能否复刻移动互联网商业奇迹的挑战,需突破传统流量红利建立新型变现模式[2] - AI与移动互联网时代的用户生态和商业边界存在显著差异,AI作为平台能力可能减少用户对多App的需求[2] - 中美互联网巨头在AI投入态度上的差异可能影响未来竞争力,技术能力向商业价值转化仍需关键要素[2] 大模型盈利模式与Scaling Law的影响 - 大模型在账面亏损情况下仍能盈利,因每代模型被视为独立“初创公司”进行损益核算[3] - 模型能力跃升自然驱动资金、算力和数据投入,Scaling Law持续生效对企业增长至关重要[3] - 现有AI界面无法完全释放模型能力,原生界面设计面临重大挑战[3] 其他技术要事 - 本期通讯包含32项AI与Robotics赛道要事速递,其中国内10项、国外13项、技术方向9项[3] - 通讯总字数29929字,免费试读至7%,完整版需99微信豆(约合人民币9.9元)兑换[4]
腾讯研究院AI每周关键词Top50
腾讯研究院· 2025-08-16 02:33
芯片 - 英伟达和AMD面临出口许可抽成问题 [3] - 美国在芯片领域推进追踪器嵌入技术 [3] 算力 - 特斯拉Dojo团队解散 [3] - 浪潮推出超节点AI服务器 [3] 模型 - OpenAI发布GPT-4o回归和GPT-5 Pro [3] - 智谱推出GLM-4.5和GLM-4.5V开源模型 [3] - 昆仑万维发布SkyReels-A3和Skywork UniPic 2.0 [3] - 腾讯推出Large-Vision模型 [3] - Anthropic推出支持百万上下文的模型 [3] 应用 - xAI开放Grok 4免费使用 [3] - 腾讯混元等接入CubeMe [3] - 阿里推出具身智能组件 [3] - 百川智能发布Baichuan-M2 [3] - OpenAI在IOI竞赛中获金牌 [3] - 昆仑万维推出Matrix-3D [3] - 商汤发布AI剧组工具 [4] - 苹果推出新Siri [4] - Pika推出音频驱动表演技术 [4] - Claude Code推出Opus规划模式 [4] - 昆仑万维发布Deep Research Agent v2 [4] - 腾讯混元推出Hunyuan-GameCraft [4] - 微软提出AI Agent五大模式 [4] - 港大等推出OpenCUA框架 [4] 科技 - 世界机器人大会展示100+机器人 [4] - 灵巧智能推出柔性灵巧手 [4] - Figure展示机器人叠衣服技术 [4] - 苹果推出AI全家桶 [4] - 智元机器人开源世界模型平台 [4] 观点 - 王兴兴探讨具身智能发展 [4] - Product Hunt关注AI产品发布 [4] - 英伟达等讨论物理AI [4] - 毕树超探讨Scaling Law [4] - Artificial Analysis分析大模型应用 [4] - 国外开发者测评编程能力 [4] - DeepMind强调Genie 3重要性 [4] - Notion讨论AI产品标准 [4] - Greg Brockman提出算法瓶颈问题 [4] - 王小川探讨医疗大模型 [4] 资本 - Meta收购WaveForms [4] - Periodic Labs获得AI材料融资 [4] - OpenAI投资脑机接口 [4] - Perplexity收购Chrome [4] 事件 - OpenAI参与AI国际象棋 [4] - GitHub并入CoreAI [4]
被王兴兴质疑的VLA,为何自变量机器人CEO王潜坚定看好?
搜狐财经· 2025-08-14 07:37
具身智能模型发展路径 - 行业认为达到ChatGPT或GPT-3.5水平需3到5年时间 [2][7] - 硬件已非发展障碍 运动能力达到非常好水平 但当前机器人更多提供情绪价值而非实用价值 [2][13] - 行业共识是需要完全统一的端到端基础模型或通用模型 [2][6] VLA技术路线与模型特性 - VLA技术路线被确认为正确方向 将遵循类似大语言模型的Scaling Law发展路径 [2][7] - 具身模型应是独立于数字世界的物理世界基础模型 而非语言模型延伸 [3][9] - 模型训练需要足够大数据量 尽可能大的模型规模 并在架构和训练方法上持续探索 [3][7] 数据策略与质量挑战 - 复杂物理交互操作拒绝使用仿真数据 导航类任务可大量采用仿真数据 [10] - 数据主要来源包括互联网视频预训练数据 现实机器人采集数据及人类演示数据 [10] - 数据质量控制是研发核心挑战 数据质量直接决定模型性能上限 [12] 应用场景与商业化展望 - 家庭及养老生活场景被判断为最大潜在市场 规模可能超越工业场景 [3][14] - C端产品预计2-4年内进入日常生活 目标价格区间为1-2万美元(约10万人民币) [4][17] - 公司选择软硬一体化商业模式 直接提供完整产品或解决方案而非单纯模型授权 [4][19] 技术实施与产品规划 - 短期聚焦轮式机器人平台 暂不开发双足形态 以室内场景为主要应用方向 [19] - 通过长序列任务训练提升环境泛化能力 但承认该路径会延长商业化周期 [18] - 当前产品优先面向科研市场 逐步向复杂场景推进 [19]
GPT-5 翻车:OpenAI「回滚」大戏与AI扩张隐形边界
36氪· 2025-08-13 11:02
GPT-5发布与策略调整 - GPT-5于8月7日上线四款型号(regular/mini/nano/pro)但5天后因问题回滚 GPT-4o重新成为付费用户默认模型 [1] - 回滚原因为产品策略自我修正而非技术故障 类似2023年11月ChatGPT宕机事件但性质不同 [1] - OpenAI承诺未来若再移除GPT-4o将提前充分通知 行业解读为GPT-5尚未准备好全面接管生产环境 [1] GPT-5技术缺陷表现 - 路由系统失控导致37%的Pro用户请求被错误分配至nano型号 引发长文本处理失忆问题 [4] - 代码补全场景性能下降 GPT-5通过率较GPT-4o低8.7% 引发开发者社区批评 [4] - 用户情感负面反馈激增 Reddit论坛r/ChatGPT单日出现1.2万条帖子控诉新版失去灵魂 [4] 用户模型依赖与人格化需求 - 用户对模型人格一致性产生强烈黏性 出现AI产品首次饭圈化现象 [3][5] - 创作者将GPT-4o输出内容打印成诗集 并在Change.org发起请愿要求保留其性格参数 [7] - OpenAI承认低估用户对人格一致性敏感度 计划在下一版GPT-5推出温度旋钮功能实现人格调节 [5] 成本与能耗问题 - GPT-5推理模式成本显著上升 企业API输入/输出token价格较GPT-4o分别上涨400%和50% [6] - 196k上下文token单轮成本为GPT-4o的3.6倍 用户每周3000条限额折算约60美元 [9] - 微软Azure为GPT-5预留20万H100集群 峰值功耗120MW相当于旧金山8%居民用电量 [10] 行业发展趋势转变 - AI行业触及扩张-效率-可持续三相临界点 参数扩张模式面临物理限制 [11][13] - 新发展方向包括模型瘦身(如Mistral-Medium-122B以1.5亿美元训练成本逼近GPT-4性能)硬件定制化(算力/瓦时提升2.3倍)及能量套利(数据中心迁移降电费40%) [11][13] - 行业从参数规模竞争转向能效优化 省电成为下一轮融资核心故事 [12] OpenAI商业模式调整 - 公司同步测试三条收入曲线:订阅制(C端创作者)API按token收费(中小企业)硬件合作分成(云厂商) [13] - 策略优先级调整为C端保体验(回滚GPT-4o保订阅)API保利润(高定价模式为ROI保险)硬件保能效(与英伟达/AMD联合优化) [14] - 推出可调人格/成本/安全的产品设计 并将电费成本直接纳入SaaS定价体系 [14]
GPT-5不是技术新范式,是OpenAI加速产品化的战略拐点
虎嗅· 2025-08-12 23:54
公司战略定位 - OpenAI正从研究实验室转型为产品平台公司 ChatGPT已成为拥有10亿MAU的大众产品 增速加快且用户粘性增加 显示出产品已实现破圈 [1] - 评价GPT-5应基于OpenAI作为产品公司的视角 而非单纯AGI技术实验室视角 [2] - 采用类似Apple的单一产品线策略 通过路由系统整合多模型能力 有利于成本优化和用户心智占领 对比Google Gemini多产品线策略更具商业优势 [9] GPT-5核心能力特征 - 是精通现有场景的Everything Model 在多数场景下任务完成度提升 解决现实use case卡点 但非次世代Agentic Model [3] - 主要能力提升包括:vibe coding能力大幅提升 reasoning效率与效果较o3明显提升 API支持自定义工具 长上下文/工具使用更稳定 [5] - 明显短板包括:Agentic能力无显著进步 指令跟随不如Claude 情感对话能力较GPT-4o减弱 [5] - 在SWE-Bench基准测试中达到74.9% 略高于Claude Opus 4.1的74.5% 但实际表现更接近Sonnet 3.7水平 [18] 路由系统架构 - GPT-5非单一模型 而是由Router驱动的系统 能按问题复杂度动态选择不同模型的智力水平 [6] - Router为小模型 利用历史用户行为数据训练 随着用户数据积累 模型选择能力将快速优化 [7] - 当前Router未内化到同一模型中 进度低于预期 端到端模型比模块化系统更智能 [8] - 路由系统可能导致对话体验不一致 陪伴型用户面临风格不统一 效率型用户可能因错误路由出现幻觉 [9] 定价与市场竞争 - 旗舰模型GPT-5定价为输入1.25美元/百万token 输出10美元/百万token 与Gemini 2.5 Pro持平 是Sonnet 4价格的一半 Opus 4.1价格的十分之一 [13][14] - 平价模型GPT-5 Mini定价为输入0.25美元/百万token 输出2美元/百万token 较Gemini 2.5 Flash更便宜 [15] - 直接对标Gemini 2.5定价 旨在成为Claude 4 killer 应对Anthropic API收入超过OpenAI的竞争态势 [10] 编程能力定位 - 更适合vibe coding和Pair Programming 在IDE中迭代开发和Debug体验良好 [16][17] - 在Agentic Coding方面不如Claude Code 写代码更谨慎 对长代码/长时间执行任务不够放开 [18] - 通过测试案例显示:GPT-5能完成"地球生态气候系统模拟"任务 但结果较为基础 需用户进一步修改 而Claude Opus 4.1能一次性完成且 gameplay更优 [19][22] - 更适合服务泛大众开发者(citizen developer)的vibe coding需求 而非专业开发者的尖端需求 [23] 推理能力进步 - 普通用户reasoning model使用率从不到1%提升至7% Plus用户从7%提升至24% 传统企业用户仍主要使用4o模型 渗透空间巨大 [25] - 幻觉显著优化:在CharXiv多模态基准测试中 当移除所有图片后 o3在86.7%情况下仍错误回答 而GPT-5仅占9% [28] - 推理效率提升:在优于o3的同时 token成本下降50%-80% API支持low/medium/high三档推理强度 [29] 工具使用创新 - 支持free-form function calling 不再依赖严格JSON schema 可先给出自然语言级工具意图 由小模型解析执行 [33] - 实现parallel tool calling 能智能判断并行或串行执行 有望解锁更长任务链 [35] - 工具使用设计思路接近Claude Code free-form function calling类似于subagent设计 [36] - 工具类型涵盖Internal Retrieval Web Search Code Interpreter和Actions四类 [32]
OpenAI惊人自曝:GPT-5真「降智」了,但重现「神之一手」,剑指代码王座
36氪· 2025-08-12 03:28
GPT-5性能表现 - GPT-5在门萨IQ测试中在线得分为118分,离线测试得分为70分,而GPT-5 Thinking版本分别获得85分和57分,创下OpenAI模型家族IQ测试有史以来的最低纪录[1][4] - 性能问题归因于路由故障,内部出现Sev级严重故障导致自动切换系统无法工作,使GPT-5表现降智[2][6][7] - 尽管存在短期问题,METR报告显示GPT-5仍处于帕累托前沿,智能呈指数级增长未放缓,延续Scaling Law的神话[9][11] 模型能力与优化 - GPT-5的核心优势在于提示工程,用户需构建完整思维框架并明确需求规格,模型可自主精准执行无需人工纠偏[12][13] - 在特定提示下如"think harder and solve",GPT-5能正确解决简单方程式问题,且不会犯错[16][17] - 模型通过合成数据训练突破互联网数据枯竭限制,实现更全面的知识覆盖,成为一站式综合解决方案[41][43] 编程能力突破 - GPT-5被定位为OpenAI迄今最强大的编程模型,在复杂前端生成和调试大型代码库方面表现突出,能通过单一提示创建美观、响应式的网站、应用程序和游戏[28][29] - 在SWE-bench测试中达到74.9%的通过率,在Aider polyglot测试中达到88.0%,显著超越前代模型[38] - 获得行业广泛认可,被Cursor首席执行官称为"使用过的最智能的编码模型",JetBrains称其使AI助手性能提升超过1.5倍[35][37] 行业竞争格局 - OpenAI年营收达120亿美元,Anthropic年营收接近50亿美元,后者增长主要得益于强大的编程能力[40] - OpenAI明确针对Anthropic的编程王座发起挑战,在新闻发布会和演示中重点强调编程能力[28][33] - 编程能力测试数据显示GPT-5在Function Calling方面表现卓越,在Tau2-bench零售测试中达到81.1%的通过率[39] 应用场景拓展 - 在医学领域展现突破性能力,生物医学家通过GPT-5分析未发表数据图,模型准确识别关键发现并提供实验方案建议,重现"神之一手"时刻[20][25] - 模型具备零样本学习新工具能力,如Python REPL和浏览器,在创造性任务中能提供惊喜解法[43] - 处理全球约71%的大模型查询,通过挖掘隐性行为信号指导模型改进,避免迎合性偏差[49][50] 技术发展路径 - OpenAI实现从"付费请人测试"到"用户主动订阅"的商业范式转变,ChatGPT发布72小时内突破百万用户[61][62] - 模型进入"自我迭代"阶段,AI模型协助创造下一代模型并能监督对人类过于复杂的工作[62][64] - 技术演进聚焦"智能体式推理",通过更快更智能的模型减少用户干预,实现AI无缝融入日常和专业使用[43]
1亿美元买不走梦想,但只因奥特曼这句话,他离开了OpenAI
36氪· 2025-08-12 03:27
AI行业投资与人才竞争 - 全球AI基础设施资本开支已达3000亿美元[48] - Meta为顶级AI人才提供1亿美元签约费进行挖角[2][8] - Anthropic每年资本开支增长一倍[7] AI技术发展现状与趋势 - Scaling Law依然有效 模型发布节奏从一年加速至每月或每三个月发布新模型[10] - 单位智能成本通过算法改进下降10倍[59] - Claude Code团队用AI完成95%代码 客服领域AI工具自动解决82%客户请求[26] 变革性AI与经济影响 - 经济图灵测试定义为AI通过50%薪资计算岗位的测试时标志变革性AI到来[20] - AI发展可能导致高达20%失业率 尤其影响白领工作[21] - 2024-2026年人形机器人硬件成本将降至两万美元 2027-2028年可能迎来技术奇点[57] AI安全与研究投入 - 全球全职研究AI对齐问题的科学家不足千人[1][48] - Anthropic采用宪法式AI方法 将联合国人权宣言等原则嵌入模型[49] - Anthropic定期发布模型"犯罪记录"以促进行业透明进步[57] 企业战略与文化差异 - Anthropic团队氛围强调"没有大佬光环 大家只想做对的事"[8] - OpenAI曾存在安全 研究和创业三大阵营制衡机制 被质疑安全优先级降低[39][40] - 2020年底OpenAI安全负责人团队集体出走创办Anthropic[35][40] 技术瓶颈与资源限制 - 行业面临算力饥荒 需要10倍电力才能支持GPT-5级别模型[61] - 7nm芯片物理极限逼近 算法进步速度放缓[61] - 高质量训练语料即将耗尽 AI可能陷入自我抄袭循环[61]