Workflow
Codex
icon
搜索文档
Codex负责人打脸Cursor CEO“规范驱动开发论”!18天造Sora爆款,靠智能体24小时不停跑,曝OpenAI狂飙内幕
搜狐财经· 2025-12-21 02:38
作者 | 高允毅 自 8 月 GPT-5 发布以来,Codex展现出惊人的爆发力,用户增长 20 倍,每周处理数万亿 tokens,成为 了 Open AI 最受欢迎的编程智能体。 "Codex 能快速实现 20倍的增长,不只是因为模型变强了,还因为我们理解了,真正的智能体不是一个 模型,而是模型、API 和框架共同努力的结果。"在最新播客中,OpenAI 的编程智能体 Codex 产品负 责人 Alexander Embiricos 揭露背后的秘密。 比如,Codex 在长时任务能力上的突破。为了让它能够连续工作十几个小时甚至数天,团队设计了名 为"压缩"的机制——模型负责提炼关键信息,API 承接任务链路,框架负责稳定运行。三层像齿轮般咬 合,使 Codex 能够完成传统大模型难以支撑的长时编程任务。 正是这样的底层逻辑,让 Codex 在业务实战中有惊人表现。 Andrej Karpathy 曾公开分享,他被一个 bug 困住数小时,最终交给 Codex 处理,一小时内就完成了修 复。 Sora 团队更是依靠 Codex,在短短 28 天时间,从 0 到 1 完成 Android 应用的上线,直接冲到 ...
OpenAI,65倍,8300亿美元
格隆汇· 2025-12-20 11:39
核心观点 - OpenAI计划进行新一轮1000亿美元融资,若成功其估值将飙升至8300亿美元,较两天前的5000亿美元估值大幅提升[1] - 公司估值基于其技术护城河、爆发式增长的变现能力、对通用人工智能的长期预期以及巨额资本开支需求,呈现典型的“买未来”逻辑[3][7][11][12] 估值与财务表现 - 按8300亿美元估值和2025年预计127亿美元营收计算,公司市销率高达65倍[2][3] - 2024年公司营收为37亿美元,预计2025年营收将达127亿美元,同比增长243%[6] - 乐观预计到2029年公司营收将达到1000亿美元,凯基亚洲预测2030年营收可能达到2000亿美元[7][8] - 若以2029年1000亿美元营收预期为基准,8300亿美元估值对应的市销率仅为8.3倍[9] - 公司预计2026年将亏损140亿美元,2023-2028年累计亏损可能高达440亿美元[23] 技术优势与护城河 - GPT-5采用自适应多模型系统,通过双轨设计和实时路由器,将算力浪费降低了40%[3] - GPT-5的输入token价格比GPT-4o降低了50%,结合折扣缓存机制使B端API调用成本减半,推动Codex代码模型使用量在两个月内暴涨10倍[3] - 正在研发的“递归自改进”技术旨在让模型自主优化升级,无需人类标注即可迭代[3] - 巴克莱银行测算,“递归自改进”技术落地后,GPT-6的训练效率将提升10倍[3] 收入构成与增长动力 - **C端订阅**:8.1亿月活用户中,5%的付费率贡献了近80亿美元收入,付费率有望继续上升[7] - 印度市场有7300万免费日活用户,若后期10%转化为付费用户,年营收可再增加17.5亿美元[7] - **B端服务**:拥有100万家企业客户、700万个商业席位,同比增长9倍[7] - 企业版定价已从2万美元/年飙升至20万美元/年,仍供不应求[7] - **生态抽成**:通过ChatGPT即时结账功能抽取1%-3%佣金,预计2026-2030年仅免费用户带来的商业抽成就能达1100亿美元[7] 资本需求与支出规划 - 新一轮融资目标为1000亿美元,其中430亿美元(占43%)将作为“递归自改进”技术的专项基金[3][14] - 训练前沿模型的成本已飙升至数十亿甚至上百亿美元级别[13] - GPT-6的算力需求是GPT-5的5倍,需要至少12.5万个H200 GPU,硬件成本高达50亿美元[14] - Sora 3视频模型的训练数据量计划从1000万小时增至1亿小时,数据采购成本至少80亿美元[14] - 计划投入近1000亿美元自建数据中心,打造“AI超级工厂”,目标在2030年实现算力自给自足[16] - 自建数据中心预计能将PUE值压到1.1以下,比向云厂商采购节省30%成本[16] - 巴克莱测算,OpenAI 2024-2030年算力总支出将超过4500亿美元,2028年峰值达1100亿美元[16] - 未来可能效仿AWS出租算力,按2030年全球算力需求测算,该业务能新增500亿美元营收[16] 人才竞争与激励 - 谷歌给AI研究员的年薪达150万美元,比OpenAI高25%[21] - 公司计划砸200亿美元用于股票薪酬,为核心工程师补发股票以弥补限制性股票单位兑现价较估值倒挂30%的差额[21] - 为新挖来的DeepMind前研究员提供高达1000万美元的签字费[21] - 按计划到2030年,员工持股总价值将达500亿美元[21] 投资者与战略考量 - 传闻软银承诺投资300亿美元,甚至不惜卖掉英伟达股票来筹钱[25] - 中东石油资本(如阿联酋MGX)也在寻求投资,将其视为对未来科技话语权的布局[25] - 微软已拥有OpenAI 49%的利润分红权,此次融资可能也是公司管理层进行“去微软化”博弈、引入更多巨头以稀释微软控制权的举措[26]
Altman谈OpenAI:算力成收入最大瓶颈,只要算力翻倍,收入就能翻倍
新浪财经· 2025-12-19 05:18
来源:华尔街见闻 在AI竞赛全面进入"贴身肉搏"的阶段,市场的关注点正在发生变化:模型谁更强,已经不再是唯一问 题;谁能把模型能力稳定转化为收入与现金流,才是新的分水岭。 在最新一期《Big Technology Podcast》的一对一访谈中,OpenAI CEO Sam Altman罕见地从商业、产品 和基础设施三个层面,系统回应了外界最关心的问题。多项表态释放出一个清晰信号:OpenAI正站在 从"现象级产品公司"迈向"企业级AI平台"的关键拐点上。 这也是 OpenAI 同时推进 浏览器、设备、代理(Agents) 的底层逻辑——目标不是做一个更聪明的聊 天机器人,而是成为"默认智能层"。 Altman再次强调,"记忆"是AI最具长期价值的能力之一,而当前AI的记忆功能仅处于"GPT-2时代"。未 来的AI将能记住你说过的每一句话、做过的每一个决定;不只是事实,而是偏好、情绪、习惯;这是 人类助理永远无法做到的。 ChatGPT为什么三年几乎没变?答案是"通用性" Altman坦言,他原本以为 ChatGPT 的聊天界面不会撑这么久,但现实证明:通用、低门槛的交互方式 被严重低估了。 不过他也明确指出 ...
Altman谈OpenAI最新路线:企业API收入已反超消费终端、明年一季度发新模型、算力决定收入上限
华尔街见闻· 2025-12-19 03:25
在AI竞赛全面进入"贴身肉搏"的阶段,市场的关注点正在发生变化:模型谁更强,已经不再是唯一问题;谁能把模型能力稳定转化为收入与现金流,才是新 的分水岭。 在最新一期《Big Technology Podcast》的一对一访谈中,OpenAI CEO Sam Altman罕见地从商业、产品和基础设施三个层面,系统回应了外界最关心的问 题。多项表态释放出一个清晰信号:OpenAI正站在从"现象级产品公司"迈向"企业级AI平台"的关键拐点上。 ChatGPT为什么三年几乎没变?答案是"通用性" Altman坦言,他原本以为 ChatGPT 的聊天界面不会撑这么久,但现实证明:通用、低门槛的交互方式被严重低估了。 不过他也明确指出,ChatGPT 的终极形态不会只是"对话框":未来 AI 将主动工作,而非被动响应、会根据不同任务生成不同界面、能在后台持续运行,只 在关键时刻打断用户、从"工具"演进为"智能代理"。 这也是 OpenAI 同时推进 浏览器、设备、代理(Agents) 的底层逻辑——目标不是做一个更聪明的聊天机器人,而是成为"默认智能层"。 Altman再次强调,"记忆"是AI最具长期价值的能力之一,而当 ...
奥特曼:希望这1.4万亿美元花得再快些,算力决定收入上限,红色警报是OpenAI的常态,仍然遥遥领先!
新浪财经· 2025-12-19 01:23
来源:瓜哥AI新知 本文内容整理自OpenAI CEO Sam Altman在Alex Kantrowitz频道的专访,公开发表于2025年12月19日。 原始内容参考:https://www.youtube.com/watch?v=2P27Ef-LLuQ 内容提要: 山姆·奥特曼在Big Technology播客上谈OpenAI的制胜之道、AI基础设施建设逻辑及2026年 IPO展望 竞争与警惕: OpenAI 将竞争视为常态,并通过"红色警报"机制保持警惕,迅速应对新出现的威 胁,并借此机会发现和弥补产品与策略的短板。他们认为这种警惕是持续获胜的关键。 产品生态系统的重要性: 强大的模型只是入场券。OpenAI 强调构建完整、协调的解决方案,即 围绕最顶尖的模型打造最卓越的产品,并拥有足以支撑大规模服务的基础设施。用户选择产品的 理由,远不止模型本身,还包括产品体验、个性化和品牌忠诚度。 模型不会完全商品化: 不同模型在特定领域各具优势,而前沿模型将创造最大的经济价值。尽管 通用模型能满足日常需求,但为科学发现等特定任务优化的模型将更具价值。 AI 平台化趋势: 人们渴望一个统一的AI平台,就像他们在生活 ...
Codex负责人打脸Cursor CEO“规范驱动开发论”,18天造Sora爆款,靠智能体24小时不停跑,曝OpenAI狂飙内幕
36氪· 2025-12-17 02:45
Codex的产品表现与增长 - 自2024年8月GPT-5发布以来,Codex用户增长20倍,每周处理数万亿tokens,成为OpenAI最受欢迎的编程智能体[1][13] - 在Codex的帮助下,Sora团队仅用28天从零到一完成Android应用开发并上线,该应用在App Store排名第一,其中从零到员工测试仅用18天,10天后正式发布[2][4][42] - 过去6个月里,Codex的使用量增长了20倍[7] - 公司内部使用Codex显著加速了工程进程,例如Atlas浏览器项目中,过去需要2-3名工程师花费2-3周完成的功能,现在仅需一名工程师一周时间[43][44] Codex的技术架构与突破 - Codex的成功被归因于一个由模型、API和框架三层构成的完整智能体系统,而非单一模型[1][19][21] - 团队设计了名为“压缩”的机制,使模型能够连续工作24到60多个小时以完成单个长时任务,突破了传统大模型的上下文限制[1][9][18] - Codex采用明确主张,让智能体在shell沙盒环境中工作,这使其能够快速学习并确保系统可靠,区别于市场上依赖语义搜索或自定义工具的其他编码产品[19][22] - 最新发布的GPT-5.1.1 Codex Max模型,在处理相同任务时比前代快约30%,且推理能力显著增强,尤其擅长解决复杂棘手的bug[17] OpenAI的组织文化与战略 - 公司的运作方式被描述为“先射击,再瞄准”,即快速发布产品,再根据真实用户反馈进行迭代优化,这种高速迭代已成为日常[3][8] - 组织架构设计为高度自下而上运作,汇聚了世界顶尖人才,个人动力与自主性极强,这是其高速发展的关键结构性原因[3][6][9] - 公司内部广泛采用“dogfooding”(自用产品)策略,通过在真实环境中持续使用自己的产品(如Codex)来推进产品发展[16] - 公司文化鼓励保持谦逊并通过不断尝试来学习,因为无法确切预知哪些功能最终会奏效[8] Codex的产品定位与愿景 - Codex被定位为开源编码智能体,是VS Code的IDE扩展,旨在参与软件开发生命周期中最繁重的部分,即编写将被部署到生产环境的代码[10] - 当前Codex被比喻为一个“聪明但不会主动的实习生”,大多数用户以结对编程的方式使用它,未来目标是让其成为能够参与软件开发全流程的“主动队友”[2][10][11] - 更广泛的愿景是构建一个“超级助手”,它能够默认提供帮助,深度融入用户的工作流程(如通过聊天或浏览器),而不仅仅是响应指令[12][24][25] - 公司认为,编写代码是人工智能完成任务的通用且最有效方式,未来几乎所有强大的智能体最终都会通过编写代码来工作[7][27] AI对软件工程与产品开发的影响 - AI(如Codex)正在改变工程师的工作内容,从编写代码转向更多地进行设计、系统理解、与AI协作以及代码审查[31] - 当前工程生产力的最大瓶颈并非AI本身,而是人类的输入速度、提示写作速度以及对AI生成工作的审查速度[3][7][60] - 随着构建产品变得更容易,深刻理解特定客户问题变得比单纯擅长产品开发更为重要,这有利于垂直领域的AI初创公司[10][48] - 产品开发方式正在向更高抽象层级演进,例如“规范驱动开发”或更普遍的“聊天驱动开发”,人工智能将能更自然地融入日常沟通流[33][34] Codex的非工程应用与公司内部影响 - 公司内部,设计团队现在可以编写并发布自己的代码,他们维护着由AI辅助构建的功能齐全原型,显著加速了设计流程[7][41] - Codex被广泛用于“一次性代码”任务,例如数据团队构建交互式数据查看器,或设计师创建临时动画编辑器,这体现了“无处不在的代码”理念[41] - Codex加速了从研究、模型训练到设计与营销等公司全链条的运作速度,产品营销人员甚至可以直接在Slack里更新文案[44] - 在模型训练等前沿领域,Codex已开始编写用于管理训练运行和基础设施的代码,并具备监控和提出修复建议的能力,呈现出“自我训练”的雏形[58][59] 行业未来展望与AGI视角 - 公司对AGI到来的一个预判是,第一批出现生产力陡增曲线的用户将在明年出现,其后的变化会加速扩散,当增长曲线异常陡峭时,可能意味着接近AGI[3][61] - 限制AGI发展的因素可能不是模型能力,而是人类自身的瓶颈,如打字速度和审查速度[3][60] - 未来的竞争优势不在于模型彼此比拼速度,而在于构建一个能够编写代码、能力可积累、可组合、可随团队使用而成长的智能体体系[28] - 学习编程依然重要,但重点将转向理解软件系统结构、复杂架构推理以及团队协作能力,使用最新工具的熟练度将成为重要优势[57]
Codex负责人打脸Cursor CEO“规范驱动开发论”!18天造Sora爆款,靠智能体24小时不停跑,曝OpenAI狂飙内幕
AI前线· 2025-12-16 09:40
文章核心观点 - OpenAI的编程智能体Codex实现了爆发式增长,其成功不仅源于模型能力的提升,更关键的是构建了一个由模型、API和框架三层紧密咬合的系统,使其能够处理长时、复杂的编程任务,并深刻改变了软件开发的流程与效率 [2][6][27] - Codex的定位正从“被动工具”向“主动队友”演进,其最终目标是参与软件开发的完整生命周期,而不仅仅是编写代码,这代表了人工智能智能体的未来发展方向 [17][29][33] - 当前人工智能生产力提升的最大瓶颈并非模型能力,而是人类自身的输入与审查速度,解除这一瓶颈是迈向通用人工智能(AGI)的关键一步 [7][11][74] Codex的增长表现与市场影响 - 自2024年8月GPT-5发布以来,Codex用户增长**20倍**,每周处理**数万亿**tokens,成为OpenAI最受欢迎的编码模型 [2][21] - 在业务实战中表现惊人,例如帮助Sora团队在**28天**内从零开发并上线安卓应用,并登顶App Store排行榜 [5][11][55] - 内部使用显著加速开发,例如Atlas浏览器项目中,过去需**2-3名工程师花费2-3周**完成的功能,现在**1名工程师1周**即可完成 [56] Codex的产品演进与关键调整 - 早期产品(Codex Cloud)因采用远程异步交互方式而“太过未来”,对新手不友好 [6][11] - 关键拐点是将Codex从云端迁回本地,使其直接在工程师的IDE中工作,此举引爆了增长 [6][11][24] - 目前Codex被比喻为“聪明但不会主动的实习生”,写代码速度很快,但尚不能完全自主工作 [6][17] 三层系统结构:技术突破的核心 - Codex的能力飞跃源于模型、API和框架三层的共同优化与紧密整合,而非单一模型改进 [2][27][33] - 为支持长时任务(如连续运行**24到60多个小时**),团队设计了“压缩”机制:模型负责提炼关键信息,API承接任务链路,框架负责稳定运行 [2][11][27] - 公司对Codex有明确的技术主张(如在沙盒环境中仅使用shell),这避免了模型行为冲突,实现了快速迭代 [27][30] OpenAI的组织文化与运作方式 - 公司文化以“速度”和“野心”著称,迭代速度“闻所未闻”,其模式被概括为“先射击,再瞄准”(即先发布再根据反馈优化) [6][13] - 组织架构高度自下而上,汇聚了世界顶尖人才,个人动力与自主性极强,这是其高速发展的关键 [6][14] - 公司内部深度实践“dogfooding”(自产自用),Codex在过去一年显著加速了公司自身的工程进程 [25][56] Codex对软件开发流程的重塑 - 改变了工程师的工作内容:从享受编写代码的创造性过程,转向花费更多时间审查AI生成的代码 [11][42] - 推动了“聊天驱动开发”等新模式,智能体未来将更自然地融入团队的日常沟通流,而不仅依赖正式规范 [44] - 使角色边界模糊化,例如OpenAI的设计师现在可以编写并发布自己的代码,工程师仅在复杂环节介入 [11][54] 人工智能智能体的未来愿景 - 终极形态是成为“情境化助手”和“超级助手”,能够默认提供帮助,每天提供数千次协助,而不仅响应几十次指令 [18][33][34] - 编写代码被认为是人工智能完成任务的“通用方式”和“最自然、最高效的行动方式”,未来几乎所有强大的智能体都将具备编码能力 [11][36] - 智能体将通过编写代码构建可组合、可复用的能力,形成能够随团队成长而不断累积的知识体系 [37] 对行业与从业者的影响 - 人工智能不会取代工程师,但会改变工作性质,系统设计、架构理解和团队协作等能力将变得更加重要 [41][70] - 产品开发速度的极大提升,使得“深刻理解特定客户问题”比“擅长产品开发”更具竞争优势,垂直领域AI初创公司前景看好 [11][60] - 学习编程依然重要,但理由从“打字写程序”转向理解系统结构、具备判断力以及配置与协作AI智能体的能力 [70] AGI发展的视角与预判 - 当前限制AGI发展的主要因素不是模型能力,而是人类的输入速度、审查速度等多任务处理能力 [7][74] - 预判第一批生产力出现“曲棍球棒式”陡增的用户将在明年出现,其后的变化会加速扩散 [8][75] - 当增长曲线变得异常陡峭时,可能意味着已经站在AGI的门口 [8]
仅4人28天,OpenAI首曝Sora内幕:85%代码竟由AI完成
36氪· 2025-12-15 06:45
OpenAI爆款APP,只动用了四员悍将。他们在短短28天内,完成了从0搭建安卓版Sora。这背后,竟是AI完成了85%的编码。 4人28天手搓Sora APP,约85%代码竟是AI写的! 10月初,OpenAI重磅发布迭代后Sora 2,以及首个AI视频应用Sora APP。 直到11月,安卓版Sora一经上线,就登上了谷歌Play Store榜首。 从10月8日到11月5日,4人工程团队与Codex协作,消耗约50亿Token,就把Sora Android推向全球。 尽管应用规模虽大,却实现了99.9%无崩溃率。 而且,他们还使用的是GPT-5.1-Codex模型的早期版本。 发布仅5个月的时间,Codex已经承包了OpenAI内部每周70%的PR了。 安卓用户在24h内,生成了超100万条视频 时隔两个月,OpenAI团队揭秘这款爆火应用(首个安卓版),如何构建的背后故事。 让人意外的是,这款APP仅在28天内完成,背后最大功臣便是AI智能体——Codex。 拥抱 「布鲁克斯定律」:保持灵活,唯快不破 当Sora在iOS上发布时,用户量直接原地爆炸。 | 相比之下,安卓当时只有一个简陋的内部原型,而在G ...
OpenAI:全球AI付费企业用户激增143%,AI工具日均为员工节省40至60分钟
美股IPO· 2025-12-08 14:06
OpenAI报告显示,企业级AI从尝鲜工具转向核心基础设施,企业API推理令牌消耗量同比暴增320倍,科技、医疗、制造业应用增长最快。OpenAI首 席运营官Brad Lightcap指出,OpenAI目前拥有超过100万家企业付费使用其企业级AI产品。报告显示,ChatGPT工作场所产品的付费席位(即员工 用户数)已达700万个。 12月8日,OpenAI发布的企业AI现状报告显示,ChatGPT周活跃用户已超过8亿,消费端的快速普及正推动AI加速进入专业工作场景。报告基于 OpenAI企业客户的实际使用数据及对近100家企业9000名员工的调研。 数据显示,过去一年ChatGPT企业版每周消息量增长约8倍,平均每位员工发送消息数增加30%。更值得关注的是, 企业对高级推理能力的使用在12 个月内激增约320倍 ,表明更智能的模型正被系统性地整合到产品和服务中。 OpenAI首席运营官Brad Lightcap指出,企业对AI的采用"实际上正在加速,基本上与消费者端一样快——在某些领域甚至比消费者端更快"。 OpenAI 目前拥有超过100万家企业付费使用其企业级AI产品。报告显示,ChatGPT工作场所产 ...
the-state-of-enterprise-ai_2025-report
OPENAI· 2025-12-07 19:00
企业AI应用现状与核心发现 - 企业AI应用正从消费者领域转向企业核心基础设施阶段,大规模复杂组织开始将AI作为核心基础设施使用[5] - OpenAI目前拥有超过100万企业客户,提供了观察AI如何部署的独特视角[6][13] - 报告基于两大主要数据源:来自OpenAI企业客户的真实使用数据,以及对近100家企业的9000名员工的调查[14][16] 企业AI使用正在加速和深化 - ChatGPT工作场所席位已超过700万,ChatGPT企业席位同比增长约9倍[17] - 自2024年11月以来,企业每周消息总量增长约8倍,平均每位员工发送的消息量增加30%[18] - 定制GPT和项目的周用户数年初至今增长约19倍,近期约20%的企业消息通过定制GPT或项目处理[20][21] - API使用迅速扩大,超过9000个组织处理了超过100亿个token,近200个组织超过了1万亿个token[22] - 过去12个月,每个组织的平均推理token消耗量增加了约320倍[23] - Codex的周活跃用户数在过去六周内增长了50%,周消息量也相应增加[24][25] AI带来的可衡量生产力与业务影响 - 75%的受访员工表示,使用AI提高了工作速度或质量[27] - ChatGPT企业用户平均每个活跃工作日节省40-60分钟,数据科学、工程和通信工作者节省更多(60-80分钟/天)[27] - 具体职能改善包括:87%的IT员工报告IT问题解决更快,85%的市场营销和产品用户报告活动执行更快,75%的HR专业人士报告员工参与度提高,73%的工程师报告代码交付更快[28] - 75%的员工报告能够完成以前无法完成的任务,例如编程支持、代码审查、电子表格分析和自动化等[29] - 在工程、IT和研究部门之外,与编码相关的消息在过去六个月平均增长了36%[30] - 使用更深入、功能更先进的员工节省时间更多,每周节省超过10小时的员工使用的“智能积分”是零节省员工的8倍[31][32] 行业与地域的采用差异 - 过去12个月,行业中位数客户规模增长超过6倍,技术行业以11倍的增长领先[10][36] - 客户增长最快的行业:技术(11倍)、医疗保健(8倍)、制造业(7倍)[40] - 在绝对数量上,ChatGPT企业客户最集中在专业服务、金融和技术等早期采用行业[39] - 非科技公司的API使用量同比增长了5倍,表明采用正从技术主导的产品嵌入扩展到更广泛的运营和工作流部署[41] - 国际增长加速:澳大利亚、巴西、荷兰和法国的付费商业客户数量增长(2024年11月至2025年11月)超过全球平均水平的143%[46] - 美国、德国和日本是按消息量计算最活跃的市场,英国和德国是美国以外最大的ChatGPT企业客户市场[48] - 过去6个月,国际API客户增长超过70%,日本是美国以外企业API客户数量最多的国家[48] AI采用中的分化现象 - 前沿员工(采用强度前95%)产生的消息量是普通中位数员工的6倍,在使用数据分析工具上更是中位数的16倍[50][51] - 在写作、编码和分析任务上,前沿员工与普通员工的差距最大,其中编码的消息量差距达17倍[54][55] - 用户参与的任务类型越多,节省的时间越多。使用约7种任务类型的用户报告节省的时间是使用约4种任务类型用户的5倍[56][57] - 即使在活跃的ChatGPT企业用户中,仍有部分人未使用最强大的工具:19%的月活跃用户从未使用数据分析,14%从未使用推理,12%从未使用搜索[60][61] - 在企业层面,前沿企业(前95%)每个席位产生的消息量是普通中位数企业的2倍,发送给GPT的消息量是7倍,表明其组织整合和工作流标准化程度更深[62][64] AI采用的商业影响案例证据 - 2025年波士顿咨询集团研究发现,过去三年,AI领导企业实现了1.7倍的收入增长,3.6倍的总股东回报和1.6倍的息税前利润率[67] - **Intercom案例**:使用OpenAI实时API构建语音AI客服,延迟降低48%,53%的电话由AI端到端解决,需要人工介入的电话解决速度也提高了40%[69][70][71] - **Lowe‘s案例**:部署AI助手为在线购物者和店内员工提供指导,每月回答近100万个问题,使用AI助手的在线访问转化率提高了一倍以上[73][74][75] - **Indeed案例**:使用GPT生成解释的“邀请申请”功能,使已开始的申请增加20%,下游成功(面试和录用)提高13%。使用AI职业教练的求职者找工作和申请速度快7倍,被录用的可能性高38%[77][78][79] - **BBVA案例**:部署法律AI聊天机器人自动处理年度超过9000次查询,使法律团队能够将相当于3名全职员工的精力重新部署,每年完成超过11000次法律检查,贡献了该部门26%的年度节省KPI[80][81][82] - **Oscar Health案例**:部署面向会员的聊天机器人,能够即时回答58%的福利问题,处理39%的福利消息而无需人工升级[83][84][85] - **Moderna案例**:使用ChatGPT企业版简化目标产品档案开发流程,将核心分析步骤从数周缩短到数小时[86][87][88] 领先企业的成功实践 - 深度系统集成:通过连接器让AI安全访问公司核心工具内的数据,约四分之一的企业尚未迈出这一步[89] - 工作流标准化与重用:积极推广针对常见任务的可重复解决方案的创建、共享和发现[89] - 高管领导与支持:设定明确指令,确保资源,协调团队,并为规模化部署创造实验空间[89] - 数据准备与评估:将机构知识编码成机器可读的流程,为关键数据管道构建API,并运行持续评估以跟踪模型在真实场景中的表现[89] - 审慎的变革管理:建立加速组织学习的结构,结合集中治理、培训和通过嵌入式AI倡导者实现的分布式赋能[89] 结论与未来展望 - AI正被嵌入到不断扩展的工作流、产品和内部系统中,采用广泛且在加速,但整合深度因组织而异[90] - 使用深度至关重要,更持续使用高级工具(如推理模型、数据分析、定制GPT、项目、API)的员工和企业报告了更大的生产力收益和更广泛的任务覆盖[91] - AI正在改变技术工作的执行者,编码和分析任务越来越多地出现在传统专家角色之外[92] - 尽管AI采用存在分化,但企业AI仍处于早期阶段,企业有机会通过效仿前沿员工和组织的模式来追赶[93] - 成功将AI能力引入面向市场工作流的组织,将把AI不仅用作生产力工具,更作为收入增长和竞争优势的持久引擎[93]