核心观点 - 全球AI产业正经历快速迭代,视频生成模型迎来“GPT时刻”,模型能力在多模态、推理和工具调用方面取得显著突破 [1][3] - 算力需求持续飙升,海外主要云计算厂商大幅提升资本开支并加速布局自研ASIC芯片,以优化推理场景下的成本与性能 [2][53][58] - 行业投资主线围绕算力基础设施建设和AI应用商业化展开,建议关注相关领域的投资机会 [3][85] 阿里云栖大会与AI全栈能力布局 - 阿里云在2025年9月24日的云栖大会上系统阐述了通往ASI(通用超级智能)的三阶段演进路线,并宣布未来三年将投入超3800亿元用于云和AI硬件基础设施建设 [1][21] - 通义大模型实现“七连发”,其中旗舰模型Qwen3-Max在SWE-Bench编程评测中获得69.6分,在Tau2 Bench工具调用测试中取得74.8分,超越Claude Opus4和DeepSeek V3.1 [12] - 新一代架构Qwen3-Next通过混合注意力机制和MoE架构实现计算效率突破,训练成本较密集模型Qwen3-32B降低超90%,长文本推理吞吐量提升10倍以上 [13] - 阿里云展示了从底层芯片、磐久128超节点服务器、HPN8.0高性能网络(带宽6.4Tbps)到分布式存储的全栈技术能力,支持单集群10万卡GPU高效互联 [23][27] 海外大厂ASIC芯片布局与算力需求 - 随着AI进入推理时代,ASIC芯片因成本与能耗优势成为云厂商重点方向;2024年AI ASIC芯片平均单价为5236美元,显著低于GPU的8001美元,且IDC预测其2024-2030年市场规模CAGR达33.5%,高于GPU的29.2% [28][31][37] - 谷歌Gemini大模型的月处理token量从2025年4月的480万亿飙升至7月的近960万亿,推动推理算力需求激增;谷歌已开始向第三方服务商(如CoreWeave)授权托管TPU芯片,扩大生态影响力 [41][48] - 海外大厂自研芯片进程加速:谷歌第七代TPU v7(Ironwood)单芯片算力达4614 TFLOPS,为TPU v5p的10倍;Meta MTIA v2采用5nm工艺,算力354 TFLOPS;亚马逊Trainium 3计划于2025年底量产,较前代性能提升2倍 [46] 全球资本开支加速与产业合作 - 受OpenAI“星际之门”项目推动,甲骨文FY2026第一季度新增剩余履约义务(RPO)达3170亿美元,全年RPO总额达4550亿美元(同比增长359%),并将资本开支指引上调至约350亿美元 [53] - 2025年第二季度,微软、谷歌、Meta、亚马逊及甲骨文合计资本开支达1035.58亿美元,同比增长74.47%,占总收入比重达历史峰值25.7% [58][59] - 英伟达与OpenAI合作部署至少10吉瓦的算力系统,英伟达计划向OpenAI投资高达1000亿美元;微软预计2025年第三季度资本支出超300亿美元,2026财年全年指引为660-720亿美元 [58][61] 视频与多模态模型技术突破 - OpenAI发布Sora 2视频生成模型,支持复杂动力学模拟(如奥运体操动作)和跨镜头连续性控制,并推出集成Sora 2的社交iOS应用,用户可通过“cameo”功能将真人植入生成场景 [70][71] - DeepSeek-V3.2引入稀疏注意力机制,在保持模型性能前提下将API调用成本降低50%以上,并适配寒武纪、海光信息等国产芯片 [74][77] - 智谱AI发布GLM-4.6模型,在多项基准测试中超越Claude Sonnet 4/4.5, token消耗较GLM-4.5节省30%,并在寒武纪芯片上实现FP8+Int4混合量化部署 [78] 投资建议与重点公司 - 报告建议关注AI算力与应用领域标的,包括海光信息(总市值5871.28亿元,2025年预期PE 149.47倍)、博通(总市值15743.89亿美元,2025年预期PE 61.97倍)、甲骨文(总市值8239.08亿美元,2025年预期PE 43.26倍)及新大陆等 [4][85]
计算机行业2025年10月投资策略:视频模型迎来GPT时刻,海外大厂加码AI投资