Workflow
微软(04338)
icon
搜索文档
小摩Q3持仓:科技股仍是主力 英伟达超微软成头号爱股
智通财经网· 2025-11-14 08:48
投资组合总览 - 截至2025年9月30日,摩根大通持仓总市值达1.67万亿美元,较上一季度的1.53万亿美元增长[1][2] - 投资组合出现净流入,流入金额占投资组合总市值的比例为+1.9843%[2] - 本季度新增864只个股,增持3144只个股,同时减持2747只个股,清仓527只个股[1][2] - 前十大重仓股占投资组合总市值的26.36%[1][2] 前十大重仓股变动 - **英伟达 (NVDA)**: 超越微软成为第一大重仓股,持股量4.89亿股,持仓市值约911.7亿美元,占投资组合5.46%,持股量环比增长5.63%[3][8] - **微软 (MSFT)**: 位列第二大重仓股,持股量1.59亿股,持仓市值约822.5亿美元,占投资组合4.93%,持股量环比增长1.11%[4][8] - **苹果 (AAPL)**: 位列第三大重仓股,持股量2.37亿股,持仓市值约602.6亿美元,占投资组合3.61%,持股量环比显著增长10.2%[5][8] - **Meta (META)**: 位列第四大重仓股,持股量5471.5万股,持仓市值约401.9亿美元,占投资组合2.41%,持股量环比微降0.01%[6][8] - **亚马逊 (AMZN)**: 位列第五大重仓股,持股量1.83亿股,持仓市值约401.1亿美元,占投资组合2.40%,持股量环比下降5.26%[7][8] - **其他重要持仓**: 包括SPY(持仓比例1.98%)、AVGO(1.86%)、GOOG(1.45%)、IISLA(1.19%)和MA(1.07%)[8] 主要买入与卖出标的 - **前五大买入标的(按持仓比例变化)**: 苹果(持仓比例增加0.73%)、英伟达(增加0.68%)、Alphabet C类股(GOOG,增加0.39%)、Alphabet A类股(GOOGL,增加0.32%)和Palantir(PLTR,增加0.24%)[9][10] - **前五大卖出标的(按持仓比例变化)**: 亚马逊(持仓比例减少0.36%)、iShares核心标普500ETF(IVV,减少0.26%)、Meta(减少0.23%)、奈飞(NFLX,减少0.23%)和Visa(V,减少0.21%)[9][10] - 投资组合调整显示对苹果、英伟达等部分科技巨头的增持,以及对Meta、亚马逊等另一部分科技股的减持[10]
微软 CEO 纳德拉:这一次工业革命,从 “AI 超级工厂”开始
36氪· 2025-11-14 00:34
公司战略核心观点 - 微软将其AI战略重新定位为构建“行星级AI超级工厂”,旨在打造一个能持续生成、调度和交付AI算力(以token为单位)的全球性基础设施系统,而非仅仅开发单一AI模型[1][5][9] - 公司CEO纳德拉将这一转变定性为一场“工业革命”,其核心是从软件许可业务转向资本密集与知识密集相结合的商业模式,重点在于通过软件优化提升资本支出效率[2][8][35][37] - 战略目标是建立长期护城河,其竞争优势不在于某一代模型的领先,而在于构建一个能灵活适应硬件快速迭代、并服务全球长尾客户的闭环系统[9][10][33] AI超级工厂的规模与架构 - 亚特兰大Fairwater 2数据中心拥有500万个网络连接,其网络光缆数量相当于两年半前微软所有Azure数据中心的总和,训练能力比GPT-5所需高出10倍[6] - 通过1 Petabit的高速网络,Fairwater 2与700英里外、横跨5个州的威斯康星州数据中心相连,在系统中被当作同一台机器进行调度[6][25] - 公司内部采用三层架构设计:训练层(为GPT-5及后续模型准备GPU资源)、推理层(确保全球响应速度)、接口层(将AI能力嵌入日常应用场景)[11] 数据中心功能的重构 - 数据中心的功能从传统的“云仓库”转变为“AI发电站”,核心要求变为能像电厂持续发电一样,持续、稳定地输出token[14][15] - 公司为AI数据中心重构了四个核心部件:芯片部署逻辑(从存储优化转向推理/训练优化)、液冷系统、网络连接结构、选址逻辑(转向靠近清洁能源和稳定电力)[16][17] - 建设速度以“光速”执行,例如Fairwater 2数据中心从获得到交付给工作负载仅用了约90天[17] 全球AI算力网络(AI-WAN) - AI-WAN(AI广域网络)的设计目标是实现跨数据中心的智能算力调度,例如在亚洲负载高峰时,可从美国或南美的空闲资源调动算力[23][24] - 调度架构分为三层:园区级调度(单个数据中心内)、区域级调度(通过高速WAN跨州协同)、全球级调度(根据工作负载类型和数据法规动态分配)[25][26] - 该网络旨在使AI算力像水电一样稳定供应,成功标准是用户无感知但系统无处不在,关键指标包括毫秒级响应延迟和高缓存命中率[28][29] 2023年战略调整的动因 - 公司暂停一批数据中心租赁计划,是为了避免成为单一模型公司的主机托管商,其目标是构建能服务长尾客户的超大规模服务网络,而非少数大客户的裸机供应商[31][33] - 面对资本支出在两年内翻三倍的压力,公司强调通过软件优化提升资本效率,例如通过软件改进使特定GPT系列的token生成效率(每瓦特每美元)提升了5倍、10倍甚至可能40倍[34][35][37] - 对于GitHub Copilot市场份额从接近100%降至25%以下,公司认为这反映了市场的快速扩张,其逻辑是“市场比份额更重要”,宁愿在一个大市场中占据25%份额[38][39][41]
微软CEO纳德拉:软件计费模式将从“按用户”转向“按AI智能体”
搜狐财经· 2025-11-13 11:14
公司战略与商业模式转变 - 微软正重新思考其软件收费模式,核心在于从传统的“按用户”计费转向“按智能体”计费,即根据具备自主执行任务与决策能力的AI系统数量进行收费[1][3] - 公司战略重心转移,不再仅面向人类员工开发软件,而是转为向“AI同事”提供软件支持,业务将从终端用户工具演变为以支持智能体工作为核心的基础设施业务[3] - 微软已为其AI智能体推出“按需付费”定价模型,该机制叠加于Microsoft 365用户免费享有的Copilot聊天体验之上,使企业可根据AI智能体实际完成的工作量灵活付费[4] 产品定位与基础设施 - 按照公司愿景,微软365等现有服务将成为AI智能体的核心工作空间,其在底层构建的所有功能(如存储、归档、探索、活动管理)对AI智能体仍然非常重要[3][4] - 这一新兴的、以支持AI智能体为核心的基础设施业务,其增长速度被预期将“超越用户数量的增长”[4] 行业变革趋势 - 行业正经历深层变革,AI系统正从“被软件驱动”的被动角色,转变为“主动使用软件”的行为主体,这一转变正倒逼企业重新设计其收费逻辑[3]
拳打索尼,脚踢微软:Steam 游戏机发布,主机战争进入下半场?
36氪· 2025-11-13 09:01
产品发布核心事件 - Valve公司于11月13日正式发布新一代Steam Machine游戏机,其性能比肩PS5,但体积仅为后者的一半[1] - 此次是Valve在2022年凭借Steam Deck站稳游戏硬件市场后,时隔两年再次推出Steam Machine产品[3] - 公司本次共发布三款硬件:立方体造型游戏主机Steam Machine、主打串流的VR头显Steam Frame、以及搭载双触控板的新Steam Controller手柄[4] Steam Machine硬件规格与性能定位 - 新款Steam Machine是一台构建在AMD架构上的开源Linux PC,有512GB和2TB两款型号,默认运行SteamOS但可安装双系统[6] - 核心配置包括一颗6核12线程的Zen 4架构处理器,以及一块28CU的RDNA3独显,显存为8GB DDR6,整机内存为16GB DDR5[8] - 整机TDP约为110W,被视为一台超低功耗的ITX电脑,其GPU性能接近RX 7600,适合1080P高画质或2K中画质运行3A游戏[9][11] - 具体游戏表现方面,预计可运行《赛博朋克2077》1080P最高画质约70帧,《黑神话:悟空》1080P高画质约30帧[11] - 接口配置为4个USB-A和1个USB-C,正面两个USB-A接口可兼容目前95%的外设包括键鼠[17] 技术战略与市场定位 - Steam Machine的立身之本是SteamOS,其背后的Proton兼容层技术已能无缝兼容Steam库内大多数Windows游戏[22] - 产品定位并非追求极致性能,而是服务于更广泛的Steam用户群体,其配置对于大多数Steam用户而言是一次升级[22] - 公司选择此配置的依据是Steam平台用户数据,最常见配置为英伟达60系显卡,占比超过20%,与Steam Machine性能几乎持平[22] - 产品设计思路是消除PC与主机内容的间隔,让用户无需分别购买PC和主机,凭借Steam游戏库的优势参与市场竞争[25] - 预计售价若控制在700美元以下将极具性价比,但考虑到未来存储涨价,实际价格可能在800-1000美元区间[25] 配套外设产品特性 - Steam Frame VR头显主打轻便与无线串流,佩戴总重仅440g,搭载两块2160x2160像素LCD屏,支持72-144Hz可变刷新率[28] - 头显内置21.6瓦时电池,纯串流续航2-3小时,插充电宝可延长至4-5小时,并采用骁龙8 Gen 3处理器[28][30] - 核心技术为“注视点串流”,通过眼部追踪动态分配画面码率,以提升拟真效果并降低延迟,预计售价低于999美元[30][31] - 新款Steam Controller手柄采用TMR电磁摇杆提升耐用性,并内置压力传感器支持“捏紧手柄启动陀螺仪瞄准”等高级功能[34][35][39] - 手柄附赠的Steam Puck是无线接收器与充电底座二合一的设备,可连接PC、Steam Deck、Steam Machine和Steam Frame全系列设备[39] 行业竞争与生态影响 - Steam Machine的上市标志着Steam游戏库从书房走向客厅,这对微软和索尼构成直接竞争[23] - 公司此举意味着游戏行业的竞争焦点从“独占内容”转向平台生态,Valve的优势在于拥有几乎所有PC玩家都离不开的游戏库[25][42][44] - 行业观点认为,主机战争并未结束,而是战场发生变化,关键在于谁能提供更好的游戏体验、更丰富的游戏选择和更灵活的游玩方式[44] - Valve通过Steam Deck、Steam Machine、Steam Frame和Steam Controller构建了一个完整的PC游戏硬件生态系统[42]
微软CEO深度访谈:Azure利润很大程度来自配套服务,模型开发商会陷入"赢家诅咒"、平台价值不会消失
华尔街见闻· 2025-11-13 08:37
Azure/云策略 - Azure/AI工作负载不仅需要AI加速器,还需要大量配套支持,利润空间很大程度上来源于这些配套服务[4] - 将Azure打造成为长尾工作负载的终极平台,这是超大规模云业务的本质[4][8] - 必须在最基础的高端训练硬件层保持绝对竞争力,但不能挤占其他业务,因为微软并非仅与少数客户签订裸金属服务合同[8] - 超大规模云业务归根结底是为AI工作负载提供长尾服务,为此将保持领先的裸金属即服务能力[8][300] 自研芯片策略 - 微软将通过自有模型与定制芯片的闭环优化来降低总拥有成本(TCO),这种垂直整合策略旨在为大规模AI工作负载提供成本优势[4] - 任何新加速器的最大竞争对手甚至是英伟达的上一代产品,评估标准是集群整体的TCO[7][363] - 在自有MAI模型和自研芯片之间建立闭环,这被视为做自研芯片的“天赋人权”,能够根据具体任务设计微架构[7][367] - 微软拥有从计算到AI芯片的扩展成功先例,将管理包含自研芯片、英特尔、AMD等多供应商的平衡集群[365] 与OpenAI的合作关系 - 根据新协议,微软拥有OpenAI所有系统级创新(包括芯片和系统设计)的完整IP授权,除了消费级硬件[4] - 微软对OpenAI的项目拥有全部访问权限,直接获得所有知识产权,同时微软也向OpenAI提供了大量知识产权以帮助其起步[6][369][371] - 双方共同建造了所有超级计算机,微软可以从OpenAI和自家MAI+Maia团队两边汲取最好的技术,甚至直接使用OpenAI的设计[4][372] - OpenAI的无状态API业务(PaaS)是Azure独占的,而其SaaS业务(如ChatGPT)可在任何地方运行,但任何定制协议或涉及无状态API的合作伙伴集成都必须通过Azure[379][382] 模型商业化与行业利润 - 总会有一个相当强大的开源模型可供使用,前提是拥有配套的数据资源和基础设施支撑[4][12] - 模型开发商可能陷入“赢家的诅咒”,即完成艰巨创新后成果易被复制而商品化,而掌握数据根基、情境工程能力及数据流动性的企业可获取检查点进行再训练[4][12][119] - 公司的未来将是工具业务与为AI智能体提供计算资源的结合,微软现有的最终用户工具业务将演变为支持代理工作的基础设施业务[12][177] - 价值不会完全迁移到模型层,拥有数据和“脚手架”(应用层基础设施)的企业同样能获取价值,行业结构将迫使专业化,存在多个模型和赢家的空间[106][150][268] AI基础设施与数据中心 - 公司目标是每18至24个月将训练能力提升10倍,新一代Fairwater 2架构将使训练能力较GPT-5提升整整10倍[5][18] - Fairwater 2数据中心内的光器件数量几乎相当于两年前全球所有Azure数据中心的总和,拥有约500万个网络连接[13][18][19] - 设计支持跨站点聚合算力资源来执行大型训练任务,资源会依次用于训练、数据生成和推理,而非永久处理单一工作负载[13][21] - 基础设施需具备可替换性,避免被单一代际或模型架构锁定,以应对快速的技术迭代和不同的功率密度、冷却要求[34][35][289][294] AI代理(Agent)与GitHub战略 - 提出“Agent HQ”(智能体总部)概念,将其描述为AI代理的“有线电视”,可打包Codex、Claude、Cognition、Grok等任何人的智能体到一个订阅中[11][90][91] - 在GitHub上构建“Mission Control”(任务控制中心),允许用户启动、监控多个智能体,并在独立分支中工作,实现对代码库的控制和多个智能体输出的消化[11][90][92] - GitHub在代码库创建、拉取请求(PRs)等方面处于历史最高水平,每秒有一名开发者加入,其中80%会进入GitHub Copilot工作流程[87][89] - 即使AI编码代理市场竞争加剧,GitHub作为代码托管的平台地位将使其持续增长,无论哪个代理获胜[96][100] 商业模式转型与市场扩张 - AI的转型类似于从服务器到云的迁移,虽然初期可能担心利润率收缩,但实际会大规模扩展市场,例如云端使印度等地的IT购买能力按比例提升[63][64][71] - 商业模式将包括广告、交易、设备毛利润、订阅(消费者和企业)及消费量计费等多种计量方式,订阅本质是对封装消费权利的授权[50][52][54] - 以GitHub Copilot为例,AI编码代理市场从去年约5亿美元年度运营收入增长至当前50-60亿美元,呈现10倍扩张,表明市场在快速扩大[75][76][96] - 从客户端-服务器计算到超大规模计算的转型中,微软的份额可能降低,但所在市场的业务规模数量级更大,只要市场创造价值且有多个赢家,公司表现仍会不错[100][101] 资本支出与投资策略 - 业务正转变为既是资本密集型也是知识密集型,需用软件能力提高资本支出回报率(ROIC),通过优化实现每美元每瓦特token吞吐量的显著提升(季度或年度改善可达5倍、10倍甚至40倍)[384] - 资本支出决策需考虑工作负载多样性、客户多样性、地理分布和技术迭代节奏,避免过度建设单一代际产能而导致资产被困[276][284][294][342] - 将一部分资源分配给研究计算,视作研发投入,允许其在一定时期内(如两年或16个月)进行数量级扩展,其余部分由实际需求驱动[386] - 采用灵活的基础设施建设策略,包括租赁数据中心、购买托管容量、甚至采用GPU即服务,并欢迎其他“新兴云”成为Azure市场的一部分,以服务客户需求[282][283][352][356] 全球战略与主权AI - 美国科技行业和政府的优先事项是确保领先创新,并在全球建立对美国技术栈的信任,美国公司需将资本投向世界各地进行外国直接投资[393][399][400] - 在欧盟等地建设主权云和“Azure主权服务”,提供密钥管理、机密计算(包括GPU中)等服务,以满足当地数据驻留和法律要求,赋予其真正的自主权[402][403][404] - 相信各国会利用AI创造经济价值,开源和多个模型的存在将提供连续性并避免集中风险,这是一种制衡力量[410][411][412] - 超大规模投资需考虑全球布局,应对不同地区的监管需求、数据主权和电力成本等因素,而非仅集中在美国本土[340][341][350]
微软(MSFT.US)“AI超级工厂“启动!整合数十万GPU,可实现多个数据中心互联
智通财经网· 2025-11-13 08:37
公司战略与设施部署 - 微软在亚特兰大上线新一代AI数据中心,并于10月投入运营,该设施是"Fairwater"系列中的第二个 [1] - 该数据中心通过专用网络与威斯康星州的首个Fairwater站点相连,构建起全球首个真正意义上的跨州AI计算集群 [1] - 公司本季度有超过10万个GB300上线,用于其他基础设施群的推理工作 [2] 技术架构与能力 - 数据中心被称为"AI超级工厂",整合了数十万个最新NVIDIA Blackwell GPU,提供支持AI工作负载的算力 [1] - 该网络支持微软投资的OpenAI,并将多个地理上分散的数据中心融合成一个虚拟的单一超级计算机 [1] - 数据中心通过专用光缆连接的AI广域网进行互联,形成一个统一的分布式系统 [2] 运营模式与行业影响 - "AI超级工厂"模式的核心是在数百万个硬件上运行一个复杂的作业,而非为多个客户运行数百万个独立的应用程序 [1] - 该模式使得一个站点网络能共同支持同一项AI模型训练任务,训练所需的基础设施规模是传统一两个数据中心的数倍 [1][2] - 公司愿景是实现可互换基础设施群,能够在任何地方基于专用加速器和网络路径,以最高性能和效率运行任何工作负载,确保没有GPU被闲置 [2]
微软借力OpenAI技术,研发AI芯片
环球网· 2025-11-13 03:34
微软与OpenAI合作战略 - 微软计划借助对OpenAI定制AI芯片研发的访问权推动自身AI芯片研发进程以破解当前自研芯片进展缓慢的局面[1] - 微软可在2032年前使用OpenAI的相关模型并在2030年前或专家小组确认实现通用人工智能前获取OpenAI的研究成果[3] - 微软明确公司将拥有整合自有研发团队与OpenAI设计方案后相关技术的知识产权[3] 技术整合与研发路径 - 微软将先复刻OpenAI为自身开发的技术再进行进一步拓展即便OpenAI在系统层面开展创新微软也能全面获取其成果[3] - 微软将整合自有研发团队力量与OpenAI的设计方案通过优势互补加快AI芯片研发步伐[3] - OpenAI正计划与博通合作定制芯片和网络硬件[3] 行业竞争背景 - 微软长期推进自研芯片项目但目前成果仍不及云计算领域竞争对手谷歌[3] - 微软的知识产权不涵盖OpenAI的消费类硬件[3]
微软“AI超级工厂”启动;科创人工智能ETF(588730) 连续4日“吸金”合超8500万
搜狐财经· 2025-11-13 03:15
市场表现 - 截至9:40,上证科创板人工智能指数(950180)上涨0.65% [1] - 指数权重股中,澜起科技和石头科技上涨超过2%,金山办公、芯原股份、复旦微电上涨超过1%,寒武纪下跌超过2% [1] - 科创人工智能ETF(588730)连续4日获得资金净流入,合计超过8500万元,近60日净流入资金接近4.8亿元,最新基金规模达16.17亿元 [1] 行业动态 - 微软正在构建跨州协作的分布式AI超级工厂,其位于亚特兰大的新一代AI数据中心已于10月投入运营,可将复杂AI训练任务从数月缩短至数周 [3] - 微软计划在未来两年内将其数据中心总面积扩大一倍,以应对激增的算力需求 [3] - 华西证券建议关注国内算力产业链闭环,伴随阿里云超预期增长及华为超节点集群产品推出,国产算力及AI应用关注度上升 [3] - 摩尔线程IPO上市通过,有望加速国产AI算力规模提升与渗透,先进制程制造和芯片架构升级将拉动国产算力水平 [3] 产品信息 - 科创人工智能ETF(588730)紧密关联新质生产力,聚焦人工智能产业核心的算力芯片和应用环节 [1] - 科创人工智能ETF(588730)跟踪上证科创板人工智能指数,该指数从科创板选取30只业务涉及人工智能基础资源、技术及应用的上市公司证券 [4] - 易方达基金作为基金管理人,具备20余年指数投资专业沉淀,产品线覆盖主流宽基和多个行业指数,触达全球10余个交易所 [4] - 关联产品包括科创人工智能ETF(588730)场外联接(A类023564,C类023565)和人工智能ETF(159819)场外联接(A类012733,C类012734),后者打包AI各细分环节龙头公司 [5]
微软启用配备数十万块英伟达GPU的AI超级工厂
经济观察网· 2025-11-13 02:15
公司动态 - 微软于当地时间11月12日宣布启用位于亚特兰大的新数据中心站点Fairwater [1] - 该数据中心被微软称为全球首个行星级AI超级工厂 [1] 技术架构 - 新数据中心与普通数据中心不同,直接与其他微软数据中心连接 [1] - 该数据中心使用数十万个英伟达GPU提供支持 [1] 产品服务 - 新站点是微软的Azure AI数据中心 [1]
微软第一座“AI超级工厂”投入运营:将两座数据中心连接,构建分布式网络
华尔街见闻· 2025-11-13 00:29
公司AI基础设施战略 - 微软正在构建一个连接不同州份数据中心的分布式“AI超级工厂”,旨在以前所未有的规模和速度加速AI模型训练,标志着行业竞争从单点建设转向网络化布局 [1] - 位于亚特兰大的新一代AI数据中心已于今年10月投入运营,这是“Fairwater”系列中的第二个设施,并通过专用高速网络与威斯康星州的数据中心连接,形成首个跨州协作的AI计算集群,可将复杂AI训练任务从数月缩短至数周 [1] - 公司计划在未来两年内将其数据中心总面积扩大一倍,以应对激增的算力需求 [1] 资本开支与行业投资 - 微软在刚刚过去的财季中资本支出超过340亿美元,并预计未来一年将继续增加投资 [2] - 整个科技行业今年的AI相关投资总额预计将达到4000亿美元 [2] “AI超级工厂”技术架构 - “AI超级工厂”核心在于将多个地理上分散的数据中心融合成一个虚拟的单一超级计算机,在数百万个硬件上运行一个复杂的作业,而非传统数据中心为多个客户运行数百万个独立应用程序 [3] - 分布式网络将整合数十万个最先进的GPU、EB级的存储空间和数百万个CPU核心,设计目标是支持参数规模达数万亿级别的未来AI模型训练 [3] - 随着AI训练流程日益复杂,涵盖预训练、微调、强化学习和评估等多个阶段,跨站点的协同能力变得至关重要 [3] 新一代数据中心设计 - “Fairwater”系列数据中心从零开始设计,位于亚特兰大的设施占地85英亩,建筑面积超过100万平方英尺,完全为AI工作负载优化 [4] - 采用高密度双层建筑设计,以便在更小空间内容纳更多GPU,缩短内部通信延迟 [4] - 部署英伟达GB200 NVL72机架规模系统,可扩展至数十万个英伟达Blackwell架构GPU [4] - 设计了复杂的闭环液体冷却系统,几乎不消耗水资源,其初次注水量仅相当于20个美国家庭一年的用水量 [4] AI广域网与算力分配 - 微软部署了12万英里的专用光纤电缆构建AI广域网(AI WAN),作为专供AI流量的“高速公路”,使数据能以接近光速的速度无拥堵传输 [6] - 跨州建设而非集中一处,主要是出于土地和电力供应的考量,将电力需求分散到不同地区可避免对任何单一电网或社区造成过度负担 [6] - 随着模型规模增长,训练所需算力已超出单个数据中心承载极限,Fairwater网络的目标是让所有GPU始终保持忙碌状态,避免瓶颈导致训练停滞 [6] 行业竞争格局 - 主要竞争对手亚马逊在印第安纳州启动了占地1200英亩的Project Rainier数据中心集群,预计将消耗2.2吉瓦的电力 [7] - Meta Platforms、甲骨文等公司也公布了庞大的建设计划,AI初创公司Anthropic则宣布计划在美国投资500亿美元用于计算基础设施 [7]