Workflow
超级计算机
icon
搜索文档
谷歌对外销售芯片:博通大涨,英伟达AMD应声下跌
半导体行业观察· 2025-11-25 01:20
文章核心观点 - 谷歌母公司Alphabet正与Meta Platforms等公司洽谈,计划直接销售其自研的Tensor AI芯片(TPU),此举将加剧与英伟达的竞争 [2] - 谷歌最新一代TPU v7(代号Ironwood)在性能上已与英伟达Blackwell GPU相当,并通过独特的可扩展架构实现超大规模计算集群 [4][5][7] - 谷歌同时推出其首款基于Arm架构的通用处理器Axion,与TPU协同构成完整的AI超级计算机解决方案 [11][12][13] 商业动态与市场影响 - Meta Platforms正考虑从2027年开始在其数据中心购买价值数十亿美元的谷歌TPU,并可能最早从2026年就开始从谷歌云租用TPU容量 [2] - 受此消息影响,谷歌股价在盘后交易中上涨超过2%,博通股价上涨近2%,而英伟达和AMD股价则下跌近2% [2][3] - 博通参与了谷歌Tensor AI芯片的设计,这可能为其开辟一个巨大的新市场 [2] TPU v7 (Ironwood) 技术规格与性能 - 每个Ironwood TPU拥有4.6 petaFLOPS的密集FP8性能,略高于英伟达B200的4.5 petaFLOPS [5] - 芯片配备192 GB的HBM3e内存,提供7.4 TB/s的带宽,与英伟达B200(192GB HBM,8TB/s带宽)处于同一水平 [6] - 性能是TPU v5p的10倍,是TPU v6e "Trillium"加速器的4倍 [6] - 单个Ironwood "模块"可通过专有互连网络连接多达9216个独立芯片,共享1.77PB高带宽内存 [7] 架构与可扩展性优势 - 谷歌采用3D环面拓扑结构进行芯片互连,无需使用昂贵且耗电的高性能数据包交换机 [9] - 系统采用光路交换技术,构成动态可重构架构,能在组件故障时于几毫秒内自动绕过中断点 [8][10] - 液冷系统的整体正常运行时间自2020年以来保持约99.999%的可用性,相当于每年停机时间不到6分钟 [8] - 谷歌报告称其Ironwood Pods的FP8 ExaFLOPS性能是其最接近的竞争对手的118倍 [8] 软件生态系统与客户案例 - 谷歌AI超级计算机客户平均实现了353%的三年投资回报率、降低了28%的IT成本,并提高了55%的IT团队效率 [13] - 推理网关通过前缀缓存感知路由等技术,能将首次令牌延迟降低96%,并将服务成本降低高达30% [13] - 早期客户Vimeo报告其核心转码工作负载性能提升30%,ZoomInfo表示其数据处理管道的性价比提升60% [12] - AI公司Anthropic计划利用多达一百万个TPU来训练和运行其下一代Claude模型 [15] 战略布局与行业影响 - 谷歌推出首款基于Armv9架构的通用处理器Axion,旨在提供比现代x86 CPU提升达50%的性能和高达60%的能效 [11] - 该战略体现了未来的计算基础设施既需要专用AI加速器(TPU),也需要高效的通用处理器(Axion)的信念 [12] - 谷歌、亚马逊等公司的定制芯片在硬件能力和网络可扩展性方面正迅速赶上英伟达,软件成为决定性因素 [16]
英伟达最强对手,来了
半导体行业观察· 2025-11-07 01:00
TPU v7 (Ironwood)性能突破 - 谷歌最新一代Ironwood TPU加速器性能实现重大飞跃,性能是TPU v5p的10倍,是TPU v6e"Trillium"的4倍 [4] - 单个Ironwood TPU提供4.6 petaFLOPS的密集FP8性能,略高于英伟达B200的4.5 petaFLOPS,略低于GB200/GB300的5 petaFLOPS [3] - 计算平台配备192GB HBM3e内存,提供7.4 TB/s带宽,与英伟达B200(192GB HBM,8TB/s内存带宽)处于同一水平 [3] - 每个TPU具有四个ICI链路,提供9.6 Tbps总双向带宽,而英伟达B200/B300为14.4 Tbps (1.8 TB/s) [3] 大规模扩展架构优势 - 谷歌TPU以Pod形式提供,单个Ironwood模块可通过专有互连网络连接多达9216个独立芯片 [7] - 9216颗芯片共享1.77PB高带宽内存,互连带宽高达9.6 Tbps,相当于在不到两秒内下载整个美国国会图书馆 [7] - 采用光路交换技术构成动态可重构架构,组件故障时可在几毫秒内自动绕过中断点,保持工作负载运行 [7] - 液冷系统整体正常运行时间保持约99.999%可用性水平,相当于每年停机时间不到6分钟 [8] - 采用3D环面拓扑结构,每个芯片以三维网格形式连接其他芯片,无需使用高性能数据包交换机 [8] Axion CPU战略布局 - 谷歌部署首款基于Armv9架构的通用处理器Axion,基于Arm Neoverse v2平台构建 [11] - Axion旨在比现代x86 CPU提升高达50%性能、高达60%能效,比云端最快通用Arm实例性能高30% [11] - 该CPU每个核心配备2MB私有L2缓存,80MB L3缓存,支持DDR5-5600 MT/s内存和统一内存访问 [11] - 早期客户Vimeo报告核心转码工作负载性能提升30%,ZoomInfo在Java服务上性价比提升60% [12] 软件生态系统与生产力 - AI超级计算机客户平均实现353%三年投资回报率,降低28% IT成本,提高55% IT团队效率 [14] - 谷歌Kubernetes Engine为TPU集群提供高级维护和拓扑感知功能,实现智能调度和高弹性部署 [14] - 开源MaxText框架支持监督式微调和生成式强化策略优化等高级训练技术 [14] - 推理网关通过前缀缓存感知路由等技术,将首次令牌延迟降低96%,服务成本降低高达30% [14] - 推理网关监控关键指标并智能路由请求,对共享上下文的请求路由到同一服务器以减少冗余计算 [15] 行业竞争格局与客户采用 - Ironwood Pods的FP8 ExaFLOPS性能被谷歌称为是其最接近竞争对手的118倍 [7] - 谷歌TPU v4支持最大4096芯片POD,TPU v5p提升至8960芯片,Ironwood进一步达到9216芯片 [16] - Anthropic计划利用多达一百万个TPU来训练和运行其下一代Claude模型 [16] - 亚马逊Trainium 2加速器在其计算结构中也采用2D和3D环面网格拓扑结构 [16]
黄仁勋:希望特朗普帮帮忙
半导体芯闻· 2025-10-29 10:40
公司技术产品与合作 - 公司在技术大会上重点介绍了其最先进的人工智能芯片Blackwell GPU,并盛赞其计算能力 [1] - 公司展示了Grace Blackwell NVL72服务器,单个机架集成72块GPU,重量达3000磅(约1361公斤),售价数百万美元 [1] - 公司去年推出的Blackwell芯片迄今已出货600万片,未来五个季度还接到1400万片订单,总销售额相当于5000亿美元 [1] - 公司与优步、路西德汽车等公司合作加速自动驾驶汽车的推出,并与制药商礼来合作打造用于药物研发的超级计算机 [3] - 公司与诺基亚合作将人工智能整合到6G无线网络中,并将向诺基亚投资10亿美元 [3] - 公司与众多企业合作提升采用其芯片的数据中心的能源效率 [4] 生产与供应链 - 公司强调其强大的“思考机器”核心组件主要产自美国工厂,并已在美国亚利桑那州实现Blackwell芯片的全面量产 [1] - 公司Blackwell系列芯片采用了台积电的晶圆级系统集成技术,该技术目前仅在台积电最先进工厂具备,台积电正推进将这项先进封装技术引入美国 [2] 行业与市场地位 - 公司在全球人工智能芯片市场占据主导地位 [2] - 公司担忧随着人工智能芯片和软件产量增加,美国会永久失去人工智能技术栈市场,因其过多依赖外国产品 [2] 公司战略与政府关系 - 公司首次在华盛顿举办大型人工智能会议,反映出其正花更多时间游说政府官员 [2] - 公司首席执行官称特朗普是美国在人工智能竞赛中的最大优势,并与特朗普达成协议拟将中国芯片销售额的15%交给美国政府以换取出口许可 [3] - 公司首席执行官赞扬特朗普努力增加电力供应,并指出若无此举措行业可能会陷入困境 [4][5] - 公司首席执行官暗示华盛顿的技术大会未来可能会定期每年举办一次 [5]
智能早报丨苹果被法国罚款4800万欧元;亚马逊史上最大规模裁员
观察者网· 2025-10-28 03:17
科创板科创成长层上市 - 首批三家新注册的科创成长层企业于10月28日正式登陆科创板 [1] - 从中国证监会宣布设立科创成长层到首批企业上市,历时4个月零10天 [1] - 首批上市企业中,两家为生物医药领域高新技术企业,一家来自半导体材料领域,均为未盈利企业 [1] 美股科技股表现 - 当地时间10月27日,美国科技股七巨头指数上涨2.40%,报208.95点,创历史新高,最近三个交易日累计上涨4.35% [2] - 特斯拉收涨4.31%,谷歌A涨3.6%,英伟达和苹果涨幅均超过2.81%,Meta、微软、亚马逊涨幅最高为1.51% [2] - AMD股价收涨2.67% [3] - 英伟达成交量为1.51亿股,市值达4.65万亿美元,增长42.63% [4] - 苹果成交量为4270.93万股,市值为3.99万亿美元,增长7.72% [4] - 微软成交量为1848.73万股,市值为3.95万亿美元,增长26.79% [4] - 亚马逊成交量为3744.06万股,市值为2.42万亿美元,增长3.46% [4] - 台积电股价上涨1.12%,市值为1.55万亿美元,增长52.52% [4] - 伯克希尔-哈撒韦A类股和B类股股价分别下跌0.79%和0.82% [4] 高管创业动态 - 前阿里巴巴集团副总裁、天猫精灵总裁彭超近期创立云玦科技,聚焦运动AI可穿戴设备与智能体融合 [5] - 云玦科技项目于10月中旬启动,首款产品为运动可穿戴硬件设备结合Agent智能体 [5] - 公司另一位联合创始人为齐炜祯,曾为中关村人工智能研究院大模型博士培养方向导师,其提出的MTP架构曾被Deepseek V3等模型引入 [7] - 彭超在阿里任职三年期间,主导对AIoT业务进行调整,实现硬件产品毛利转正和软件订阅规模化收入 [7] 公司监管与处罚 - 苹果公司因iPhone营销问题被法国法院处以4800万欧元罚款,约合5590万美元 [8] - 处罚原因包括营销合同强制运营商为iPhone广告买单、承诺固定零售价采购数量、以及允许苹果无偿使用其品牌和专利 [8] - 罚款包括800万欧元罚金及对移动运营商的赔偿,其中Bouygues Telecom获赔1600万欧元,Iliad获赔1500万欧元,SFR获赔770万欧元 [8] 行业合作与战略调整 - 美国能源部与AMD建立10亿美元合作伙伴关系,以建造两台用于解决科学问题的超级计算机 [10] - 亚马逊计划裁减多达3万个企业部门岗位,占其约35万名企业员工的近10%,为公司历史上最大规模裁员 [10]
再创新高!AMD与美国能源部达成10亿美元AI合作,打造两台超算
美股IPO· 2025-10-28 00:25
合作概览 - AMD与美国能源部达成价值10亿美元的人工智能合作,协议包含打造两台超级计算机[3] - 合作旨在通过建造新超算确保拥有足够算力运行日益复杂、需要处理海量数据的实验[3] - 这是美国政府加速关键科技领域计算能力布局的最新举措[4] 首台超算Lux详情 - 首台超算名为Lux,基于AMD的MI355X AI芯片打造,计划未来六个月内建成并投入使用[1][6] - 系统由AMD、惠与、甲骨文云基础设施业务和美国能源部下属橡树岭国家实验室共同开发[6] - Lux将提供约为当前超级计算机三倍的AI算力[7] - AMD CEO苏姿丰表示Lux的部署速度是同等规模计算机中最快的[7] 第二台超算Discovery详情 - 第二台超算名为Discovery,将采用AMD专为高性能计算调优的MI430系列AI芯片[8] - 该系统预计2028年交付,2029年投入运营[1][8] - MI430是MI400系列的特殊产品,结合传统超算芯片特性与运行AI应用的功能[8] - 橡树岭国家实验室主任预计Discovery将获得巨大性能提升[8] 超算应用领域 - 超算系统将极大加速核能和聚变能源、国防与国家安全技术以及药物研发等领域的进展[1][3] - 在聚变能源方面,超算将帮助科学家在地球上重现太阳中心的反应用于释放大量能量[9] - 在医疗领域,超算将通过分子水平模拟加速癌症治疗方法发现,目标五到八年内将许多致命癌症转变为可控制疾病[9] 市场反应与行业背景 - 合作消息使AMD股价美东时间27日早盘转涨,日内涨幅曾超1%,收涨近2.7%,连续两个交易日刷新收盘最高纪录[4] - 美国能源部还在推进与英伟达和戴尔合作的超算项目,预计2026年投入使用的"道德纳"系统性能将是现有旗舰超算"珀尔马特"的十倍以上[11][12] - 能源部将托管这些超算,企业提供机器并负担资本支出,双方共享算力[8]
【环时深度】从“先驱”到“跟不上步伐”,日本反思AI落后
环球时报· 2025-08-24 23:05
日本AI发展历史与现状 - 日本在20世纪50至70年代第一次AI热潮中是研究先驱 在自然语言处理 语音识别和图像处理等领域发挥奠基作用[1] - 1982年启动第五代计算机系统研发项目 规模达540亿日元(约2.2亿美元) 旨在开发能思考 理解话语和进行推论的超级计算机 但最终于1992年终止[2] - 上世纪90年代后日本AI研究进入空白期 研究预算大幅削减 研究人员转向其他领域 与美国持续投入形成鲜明对比[4] 日本AI落后的系统性制约因素 - 数字劳动力严重不足 日本每年AI相关硕士毕业生仅2800人 不及美国1/9 且60%集中在机器人控制等传统领域[8] - 法律壁垒过高 个人信息保护法要求企业处理数据需经过"告知-同意-记录"三个步骤 导致训练数据集构建困难[9] - 资本投入保守 2023年日本民间对AI风险投资仅7亿美元 远低于美国672亿美元和中国78亿美元 基础模型投资占比不足10%[9] 日本AI应用与教育现状 - 2024财年仅26.7%日本民众使用生成式AI 大幅低于中国81%和美国68.8% 企业制定AI使用政策的比例仅49.7%[6] - AI教育体系滞后 全国仅12所大学设立数据科学本科院系 课程框架仍以传统统计学为主 跨学科团队仅占初创企业18%[8] - 年轻人群AI使用率低下 20至29岁人群使用率仅44.7% 30至39岁人群甚至低于40至49岁人群(23.8% vs 29.6%)[7] 日本政府近期应对措施 - 通过首部AI立法《人工智能相关技术研究开发及应用推进法》 将AI发展提升至国家战略工程高度[11] - 计划2030年前向AI和半导体产业提供10万亿日元支持 首次在产业政策采用项目融资思路[11] - 启动制造业AI视觉检测计划 2025-2027年采购规模达2600亿日元 政府补贴30%成本 行业巨头承担70%[11] 日本AI产业国际比较 - 2019-2023年间日本未推出任何大模型 而美国和中國分别推出182个和30个 2024年才诞生首家AI独角兽企业SakanaAI[6] - 在顶级学术会议上日本学者主笔论文占比从2012年7%降至2023年2% 本土模型表现不及美国OpenAI的过时模型GPT-3.5[6] - 91%日企将超过90%IT预算用于维护老旧系统而非新技术研发 导致AI落地受阻[8]
英伟达将参与开发日本超算“富岳”的后续机型
日经中文网· 2025-08-22 08:00
合作开发计划 - 英伟达与日本理研将共同开发AI用GPU 这是海外企业首次参与日本核心超级计算机开发[1] - 开发代号为"富岳NEXT" 富士通负责整个系统基本设计及CPU开发 计划2030年前后开始运行[3] - 目标性能达到Zetta级 即每秒10垓次运算 AI计算能力为富岳的5至10倍以上[5] 技术配置特点 - 富岳NEXT将配备英伟达GPU提升AI计算能力 富岳仅CPU具备AI功能而未配备GPU[5] - 通过日美最先进技术整合 力争实现全球最高性能水平的超级计算机[1] - 设计目标在AI与模拟计算两个方面实现全球最高水平的计算能力[6] 战略意义与应用前景 - 日本希望通过开发富岳NEXT 在全球确立其作为AI先进国家的稳固地位[3] - 应用领域包括新药研究 电池材料开发 高精度气象预测系统等[9] - 面对中美新一代超算竞争 日本通过提升AI性能争夺世界顶级地位[9] 开发投入与历史对比 - 开发费用预计超过1100亿日元[6] - 富岳于2021年3月投入运行 开发费用1111亿日元[6] - 京超算于2012年9月投入运行 开发费用1100亿日元[6]
世运电路:公司与特斯拉合作的Dojo项目
每日经济新闻· 2025-08-06 09:01
公司与特斯拉合作项目 - 公司与特斯拉合作的Dojo项目PCB产品主要用于特斯拉超级计算机领域[1] - 公司从2023年第二季度开始供应Dojo项目的PCB产品[3] 投资者关注事项 - 投资者询问公司PCB产品应用于特斯拉超级计算机或区块链游戏引擎项目[3] - 投资者关注2023年Dojo项目PCB产品的生产量、销售量及销售收入数据[3] - 投资者询问该类产品对利润贡献的具体情况[3] 信息披露安排 - 公司表示产销经营数据需关注后续发布的相关公告[1]
特斯拉(TSLA.O)预计将在明年某个时候实现超级计算机机房的规模化运行。
快讯· 2025-07-23 22:10
特斯拉超级计算机机房 - 公司预计将在明年某个时候实现超级计算机机房的规模化运行 [1]
美日科研成果 量子计算与传统超算联袂模拟分子行为
环球网资讯· 2025-07-08 02:00
量子计算与超级计算机协同模拟 - IBM与日本理化学研究所科学家合作,成功利用量子计算机与超级计算机联合模拟多种分子的量子行为,包括氮分子及两种铁硫化合物 [1] - 采用127个量子比特协同工作,量子计算机负责核心运算,超级计算机担任"质检员"角色,及时修正计算误差 [1] - 空间量子动力学算法实现创新突破,超级计算机在检测到电子数异常时指导量子计算机重新计算 [1] 技术进展与行业评价 - IBM量子计划副总裁指出混合模式虽未超越超级计算机独立性能,但已具备与传统方法竞争的实力 [2] - 计算化学权威肯尼思·莫瑞兹团队改良算法可模拟溶液环境中的分子,使化学实验建模更贴近现实 [2] - 专家预测算法优化后,量子-经典计算机组合有望在一年内展现显著优势 [2] 行业竞争格局 - 英伟达已开发支持混合计算的软件平台 [2] - 微软强调量子计算、超级计算与人工智能的融合将重塑化学和材料科学领域 [2] 技术优化方向 - 日本理化学研究所实验室升级搭载错误率更低的IBM新型量子处理器 [2] - 研究团队同时优化空间量子动力学算法和提升"鹭"量子计算机与"富岳"超级计算机的协同效率 [2]