Workflow
Yotta级算力
icon
搜索文档
OpenAI、李飞飞同台,Lisa Su:AMD AI 芯片走到关键一步
36氪· 2026-01-07 00:42
公司战略与产品发布 - AMD在CES 2026上发布了面向Yotta级AI时代的完整工业级平台,包括面向数据中心的MI455X GPU(3200亿晶体管)、面向企业部署的MI440X以及主推的机架级平台Helios [1] - 公司预告下一代MI500系列将在2027年登场,并宣称四年内性能增长1000倍 [3] - 公司战略从提供单一芯片转变为构建可规模部署、长期在线、灵活适配的AI基础设施,其Helios平台重达3吨,是一个集成的计算工厂 [7][9][10] 核心产品:Helios平台详解 - Helios平台采用高度集成设计,每个计算托盘包含4块MI455X GPU(3200亿晶体管,432GB HBM4内存)、1颗Venice CPU(多达256个Zen6核心)和1颗Pensando网络芯片 [11] - 平台具有模块化特点,采用OCP开放计算标准,组件可替换、升级和扩展 [13] - 平台强调效率,采用全液冷设计,每个机架拥有31TB显存,机架内部带宽达260TB/s,对外连接带宽43TB/s,运算能力达每秒2.9 Exaflops [15][16][17] - 与竞争对手NVIDIA的DGX系列相比,Helios更注重模块化、开放性和作为行业通用标准件的定位 [18] 行业趋势与算力需求 - AI算力需求急剧增长,从2022年的1 Zettaflop预计增长至2025年的超过100 Zettaflops,未来五年全球算力需再提升100倍,迈向10 Yottaflops [4] - 一个Yottaflop是1后面带24个零,是当前全球算力的上万倍,此量级的增长需要在五年内完成 [5] - 算力需求驱动因素包括:生成视频(一个10秒视频动辄十万个token)、多模态智能体以及企业本地AI部署 [6] - OpenAI总裁Greg Brockman指出,推理量在两年内激增了100倍,AI应用正从“尝鲜”变为“常驻”,对算力系统的长期稳定性和经济性提出更高要求 [6][21] 客户案例与生态验证 - 多家行业领军企业现场展示其核心业务部署于AMD平台,包括OpenAI、Meta、Luma、Liquid AI、Absci等 [2][19] - AI视频公司Luma已将60%的推理负载迁移到AMD平台,其10秒视频模型推理需处理高达10万个token [22] - MIT孵化的Liquid AI展示了在本地设备上运行的LFM 2.5(12亿参数)和LFM 3(多模态助手,延迟低于100毫秒)模型,凸显对部署速度、离线能力和功耗控制的需求 [24][27] - World Labs CEO李飞飞展示了空间智能应用,需要高带宽、低延迟、大内存和高并发能力,这超出了传统图形处理的范围 [29][30] 从云到端的全面布局 - 在云端,Helios机架、MI455 GPU和Venice CPU构成大规模训练与推理基础设施 [43] - 在企业级,MI440X和MI430X面向主权AI和超级计算场景 [43] - 在开发层,推出Ryzen AI Max(配备128GB统一内存,可本地运行200B参数模型)和手掌大小的Halo AI开发机,让开发者能离线进行模型开发 [36][37] - 在消费端,Ryzen AI 400系列处理器让普通PC也能运行Copilot等AI工具 [43] - 公司提供从云到边缘的连续计算结构,例如为人形机器人Gene One提供从本体嵌入式芯片到训练显卡的完整算力路径 [40][41] 垂直行业应用落地 - 医疗成为AI落地最快领域之一:Absci使用AMD MI355单日筛选超过100万种候选药物;Illumina使用AMD EPYC CPU和FPGA实时处理每日超过YouTube数据量的测序数据;AstraZeneca使用生成式AI使候选药物交付速度提升50% [38] - 工业机器人需要边缘AI进行本地实时决策与响应 [40][41] - 新兴场景如空间智能、机器人导航、虚拟世界构建对算力提出“不能等、不能断、不能慢”的要求 [42]