Workflow
Phi 4
icon
搜索文档
The rise of AI reasoning models comes with a big energy tradeoff
Fortune· 2025-12-05 21:56
行业趋势:AI推理模型成为主流 - 几乎所有领先的AI开发商都在专注于构建模仿人类推理方式的AI模型[1] - 自OpenAI约一年前发布首个推理模型o1以来,许多其他AI公司也发布了类似系统,旨在解决科学、数学和编程等领域的复杂多步骤问题[5] - 推理系统已迅速成为执行更复杂任务的行业规范[6] 研究核心发现:推理模型能耗激增 - AI推理模型在响应1000个书面提示时,平均消耗的电力是未配备或禁用此功能替代方案的30倍[2] - 能耗增加很大程度上是由于推理模型在响应时会生成更多的文本[6] - 研究评估了40个开源、免费的AI模型,包括来自OpenAI、Alphabet旗下谷歌和微软的软件[3] 具体模型能耗数据对比 - 中国初创公司深度求索的R1模型精简版在关闭推理功能时仅消耗50瓦时来响应提示,开启后则需7,626瓦时,能耗差异巨大[3] - 微软的Phi 4推理模型开启推理功能时消耗9,462瓦时,关闭时约为18瓦时[8] - OpenAI最大的gpt-oss模型在计算最密集的“高”设置下开启推理消耗8,504瓦时,在“低”设置下消耗5,313瓦时[8] AI能耗激增的宏观影响 - AI的能源需求飙升已受到越来越多的审视,科技公司竞相建设更多更大的数据中心以支持AI,引发了对电网压力和消费者能源成本上升的担忧[4] - 彭博社9月的一项调查发现,在过去五年中,数据中心附近地区的批发电价上涨了高达267%[4] - 微软、谷歌和亚马逊此前已承认,数据中心的建设可能使其长期气候目标复杂化[4] 行业关注点转移与内部观点 - 关于AI功耗的讨论多集中在用于训练AI系统的大型设施上,但科技公司正将更多资源转向推理,即AI系统训练后的运行过程[9] - 谷歌8月发布的内部研究估计,其Gemini AI服务处理单个文本提示的能耗中位数为0.24瓦时,并称该数字“远低于许多公开估计”[9] - 微软CEO萨提亚·纳德拉表示,行业必须为AI数据中心的使用获得“社会许可”,并利用AI行善和促进广泛经济增长[10] 研究背景与建议 - 该研究由Hugging Face研究科学家Sasha Luccioni和Salesforce Inc. AI可持续发展负责人Boris Gamazaychikov领导的AI Energy Score项目进行[2] - 研究旨在更好地理解AI能源需求的演变,并帮助人们认识到不同类型的AI模型适用于不同的任务,并非每个查询都需要调用计算最密集的AI推理系统[7] - 研究人员建议更智能地使用AI,为正确的任务选择合适的模型很重要[7]
The Rise of AI Reasoning Models Comes With a Big Energy Tradeoff
Insurance Journal· 2025-12-05 06:05
行业趋势:AI推理模型成为主流 - 几乎所有领先的AI开发商都在专注于构建模仿人类推理方式的AI模型[1] - 自OpenAI约一年前发布首个推理模型o1以来,许多其他AI公司也发布了类似系统,旨在解决科学、数学和编程等领域的复杂多步骤问题[5] - 推理系统已迅速成为执行更复杂任务的行业规范[6] 能源消耗研究:推理模型能耗激增 - 根据AI Energy Score项目的研究,AI推理模型平均需要消耗100倍以上的电力来响应1000个书面提示,相比之下,不具备或禁用此功能的替代模型能耗低得多[2] - 研究人员评估了40个开源、免费的AI模型,包括来自OpenAI、Alphabet旗下谷歌和微软的软件[3] - 能源消耗的差异很大,例如中国初创公司深度求索的R1模型精简版,在关闭推理功能时仅消耗50瓦时来响应提示,相当于运行一个50瓦灯泡一小时;而启用推理功能后,同一模型需要308,186瓦时来完成相同任务[3] - 微软的Phi 4推理模型在开启推理时消耗9,462瓦时,关闭时仅消耗约18瓦时[8] - OpenAI最大的gpt-oss模型在计算最密集的“高”设置下开启推理消耗8,504瓦时,在“低”设置下消耗5,313瓦时[8] 能源影响:对电网与成本的担忧 - AI的能源需求飙升已受到越来越多的审视,科技公司竞相建设更多更大的数据中心以支持AI,引发了行业观察者对电网压力和消费者能源成本上升的担忧[4] - 彭博社9月的一项调查发现,在过去五年中,数据中心附近地区的批发电价上涨了高达267%[4] - 微软、谷歌和亚马逊此前已承认,数据中心的建设可能使其长期气候目标复杂化[4] 行业动态:从训练转向推理 - 关于AI功耗的讨论大多集中在为训练人工智能系统而建立的大规模设施上[9] - 然而,科技公司正越来越多地将资源转向推理,即AI系统训练后的运行过程[9] - 向推理模型的推进是这一转变的重要组成部分,因为这些系统更依赖于推理过程[9] 公司行动与观点 - 谷歌在8月发布的内部研究估计,其Gemini AI服务的单次文本提示中位能耗为0.24瓦时,大致相当于看电视不到九秒,该公司称该数字“远低于许多公开估计”[9] - 微软CEO萨提亚·纳德拉在11月的一次采访中表示,行业必须为AI数据中心赢得“消耗能源的社会许可”,为此科技必须利用AI行善并促进广泛的经济增长[10] - OpenAI、微软、谷歌和深度求索未立即回应置评请求[8] 研究启示与建议 - 该新报告旨在更好地理解AI能源需求如何演变[7] - 研究有助于人们更好地理解存在适用于不同操作的不同类型的AI模型,并非每个查询都需要动用计算最密集的AI推理系统[7] - 研究人员建议应更明智地使用AI,为正确的任务选择合适的模型很重要[7] - 功耗增加的主要原因在于推理模型在响应时会生成更多的文本[6]