行业趋势:AI推理模型成为主流 - 几乎所有领先的AI开发商都在专注于构建模仿人类推理方式的AI模型[1] - 自OpenAI约一年前发布首个推理模型o1以来,许多其他AI公司也发布了类似系统,旨在解决科学、数学和编程等领域的复杂多步骤问题[5] - 推理系统已迅速成为执行更复杂任务的行业规范[6] 能源消耗研究:推理模型能耗激增 - 根据AI Energy Score项目的研究,AI推理模型平均需要消耗100倍以上的电力来响应1000个书面提示,相比之下,不具备或禁用此功能的替代模型能耗低得多[2] - 研究人员评估了40个开源、免费的AI模型,包括来自OpenAI、Alphabet旗下谷歌和微软的软件[3] - 能源消耗的差异很大,例如中国初创公司深度求索的R1模型精简版,在关闭推理功能时仅消耗50瓦时来响应提示,相当于运行一个50瓦灯泡一小时;而启用推理功能后,同一模型需要308,186瓦时来完成相同任务[3] - 微软的Phi 4推理模型在开启推理时消耗9,462瓦时,关闭时仅消耗约18瓦时[8] - OpenAI最大的gpt-oss模型在计算最密集的“高”设置下开启推理消耗8,504瓦时,在“低”设置下消耗5,313瓦时[8] 能源影响:对电网与成本的担忧 - AI的能源需求飙升已受到越来越多的审视,科技公司竞相建设更多更大的数据中心以支持AI,引发了行业观察者对电网压力和消费者能源成本上升的担忧[4] - 彭博社9月的一项调查发现,在过去五年中,数据中心附近地区的批发电价上涨了高达267%[4] - 微软、谷歌和亚马逊此前已承认,数据中心的建设可能使其长期气候目标复杂化[4] 行业动态:从训练转向推理 - 关于AI功耗的讨论大多集中在为训练人工智能系统而建立的大规模设施上[9] - 然而,科技公司正越来越多地将资源转向推理,即AI系统训练后的运行过程[9] - 向推理模型的推进是这一转变的重要组成部分,因为这些系统更依赖于推理过程[9] 公司行动与观点 - 谷歌在8月发布的内部研究估计,其Gemini AI服务的单次文本提示中位能耗为0.24瓦时,大致相当于看电视不到九秒,该公司称该数字“远低于许多公开估计”[9] - 微软CEO萨提亚·纳德拉在11月的一次采访中表示,行业必须为AI数据中心赢得“消耗能源的社会许可”,为此科技必须利用AI行善并促进广泛的经济增长[10] - OpenAI、微软、谷歌和深度求索未立即回应置评请求[8] 研究启示与建议 - 该新报告旨在更好地理解AI能源需求如何演变[7] - 研究有助于人们更好地理解存在适用于不同操作的不同类型的AI模型,并非每个查询都需要动用计算最密集的AI推理系统[7] - 研究人员建议应更明智地使用AI,为正确的任务选择合适的模型很重要[7] - 功耗增加的主要原因在于推理模型在响应时会生成更多的文本[6]
The Rise of AI Reasoning Models Comes With a Big Energy Tradeoff