苏姿丰CES演讲全文来了!尧字节时代来临,Helios登场,“未来四年,要实现AI性能1000倍的提升”!

公司战略与愿景 - 公司使命是突破高性能计算与AI计算的边界,以解决全球最关键的挑战,其技术每天影响数十亿人的生活,从云数据中心到超级计算机、5G网络、交通和游戏娱乐 [22] - AI是过去50年来最重要的技术,也是公司的绝对首要任务,其目标是让AI无处不在并惠及每一个人,为每一家企业、每一个人构建实现这一未来的计算基础 [23][24] - 公司采用“全栈开放”策略,整合CPU、GPU、NPU、定制加速器,覆盖云、边缘端、个人设备全场景,强调为不同工作负载匹配最优计算能力,并依赖开放生态加速创新 [4][26] - 公司是唯一拥有全系列计算引擎(GPU、CPU、NPU、定制加速器)并能针对应用场景优化的公司,旨在提供最佳性能与最高成本效益 [26] - 公司是唯一在全栈(硬件、软件和广泛解决方案生态)实现开放的公司,其软件战略以Rockham为核心,这是行业性能最高的开放AI软件栈,得到PyTorch、VLLM等顶级开源项目的原生支持 [47] 行业趋势与市场需求 - 自ChatGPT发布以来,使用AI的活跃用户从100万增至10亿,预测到2030年将达50亿,覆盖全球超半数人口 [1][3][24] - AI计算需求急剧增长,全球计算基础设施需求从2022年的约1泽字节每秒(Zettaflop)增长到如今的100多泽字节每秒,短短几年间增长了100倍,但仍远不能满足所有潜在需求 [24] - 为实现“AI无处不在”,未来几年需要将全球计算能力再提升100倍,在未来五年内达到10尧字节每秒(Yottaflop),这相当于2022年计算能力的1万倍 [24][25][26] - 过去十年,训练顶尖AI模型所需的计算能力每年增长超过4倍,同时过去两年AI推理需求呈爆炸式增长,令牌处理量增长了100倍 [28] - 未来一个国家、地区的GDP增长将直接由其拥有的计算能力驱动,AI技术将成为提升生活质量的核心驱动力 [43] 云端AI计算与产品发布 - 发布专为尧字节级AI时代设计的下一代机架式平台Helios,采用液冷+模块化设计,重量近7000磅(约3.2吨),搭载Instinct MI455X GPU、EPYC "Venice" CPU和Pensando 800G以太网芯片 [5][30] - Helios单机架包含18个计算托盘,每个托盘采用1颗Venice CPU和4颗MI455X GPU,总计超过1.8万个GPU计算单元和4600多个CPU核心,提供2.9 Exaflops的FP8算力,配备31TB HBM4内存,扩展带宽260TB/s [5][9][33] - 发布下一代Instinct MI455X加速器,采用2/3nm工艺,拥有3200亿晶体管,配备432GB HBM4内存,较上一代MI355性能提升10倍 [5][31] - 发布下一代EPYC "Venice" CPU,采用2nm工艺,拥有256核Zen 6架构,专为AI优化,内存/GPU带宽较上一代翻倍 [5][32][33] - 公布Instinct系列GPU路线图,计划2027年推出MI500系列,采用CDNA 6架构和2nm工艺,目标是在未来四年内实现AI芯片性能较MI455X提升30倍,总计实现AI性能1000倍的提升 [1][5][7][56] 边缘与个人计算AI产品 - 发布Ryzen AI 400系列处理器,整合Zen 5 CPU、RDNA 3.5 GPU和XDNA 2 NPU,NPU算力达60 TOPS,较上代提升20%,比英特尔同期Panther Lake处理器(50 TOPS)高10 TOPS [6][59] - Ryzen AI 400系列在多项测试中领先竞品:多任务处理比Intel Ultra 9 288V领先29%,内容创作领先71%,1080P游戏帧率领先12%,视频播放续航最高24小时 [6] - 发布面向高性能开发者和创作者的Ryzen AI Max平台,配备16核/32线程Zen 5 CPU、40个RDNA 3.5 GPU计算单元、NPU算力50TOPS,并支持最高128GB统一内存 [12][66] - 推出全球最小的AI开发系统Ryzen AI Halo,基于Ryzen AI Max处理器,最高配置128GB统一内存,预装多款主流开源模型,开箱即可使用,目标用户是开发者、研究人员及小型创作团队 [13][15][67] - 强调AI PC并非云端AI的替代品,而是下一代个人计算的基础设施,公司已率先在芯片中集成专用AI引擎,并推出支持Copilot+的x86 PC [10][58] 合作伙伴与生态应用 - 与OpenAI深度合作,MI455和Helios的很多设计源于双方团队的密切沟通,OpenAI指出其快速增长的推理工作负载中60%运行在AMD芯片上,并正将合作规模扩大到之前的10倍 [34][40][52][53] - 与Luma AI合作,为其多模态视频生成模型提供算力支持,Luma AI使用AMD和Rockham为其模型提供动力,其Ray 3是全球首个具备推理能力的视频模型,并支持4K和HDR生成 [47][48] - 与Liquid AI合作,为AI PC带来轻量级模型,Liquid AI发布了针对AMD锐龙AI优化的Liquid Foundation Models 2(12亿参数)以及将于今年晚些时候推出的原生多模态模型Liquid 3 [60][62][63] - 与World Labs合作,利用其生成式AI模型Marble和AMD Instinct芯片,实现从少量图片快速生成连贯、可导航的3D世界,应用于游戏开发、机器人模拟等领域 [70][73][75] - 在医疗健康领域,与AppSide、Illumina、阿斯利康等公司合作,利用AI加速药物发现、基因组测序和个性化医疗,例如AppSide借助AMD计算能力实现单日筛选超过100万种药物 [79][82][83][85][87] 技术路径与性能目标 - 明确进入“尧字节级(Yotta-scale)计算时代”,计划未来5年将全球AI计算能力从2022年的1泽字节每秒提升至10尧字节每秒,较2022年增长1万倍 [3] - 通过“全栈开放”策略和开放生态系统加速创新,历史证明当行业围绕开放基础设施和共享技术标准协同时,创新速度将大幅提升 [4][46] - MI450在FP8精度下提供20PF算力,性能接近初代的4倍,FP4精度下能达到40PF,借助HBM内存打破AI推理的“内存墙”限制 [7] - 构建尧字节级AI基础设施需要领先的计算核心与网络技术深度整合、开放的模块化机架设计、高速网络以及全开箱即用的解决方案 [29] - Helios平台通过基于以太网的高速Ultra Accelerator Link协议,让机架中的72个GPU能够作为一个统一的计算单元运行,并可连接数千机架构建超大规模集群 [30]