AMD EPYC™ processors

搜索文档
Absci Accelerates AI-Driven Drug Discovery with Oracle and AMD
Globenewswire· 2025-09-11 12:00
合作背景 - Absci与Oracle Cloud Infrastructure及AMD合作加速生成式AI驱动的药物发现[1] - 合作旨在整合基础设施并加速生物制剂设计周期[1] 技术细节 - 采用OCI的AI基础设施和AMD最新硬件构建技术基础[2] - 使用AMD下一代Instinct™ MI355X GPU提升AI药物创造平台性能[2] - 通过OCI裸金属实例实现2.5微秒超低GPU间延迟[3] - 利用第五代AMD EPYC处理器实现TB/秒级数据流吞吐量[3] 应用成效 - 平台支持大规模分子动力学模拟和端到端抗体设计[2] - 显著加速抗体-抗原相互作用的高分辨率模拟[3] - 实现治疗靶点快速设计和创新疗法开发[5] 战略意义 - 建立AI算法与湿实验室验证的持续反馈循环机制[5] - 通过合成生物学数据引擎增强治疗设计的精确度[5] - 为下一代AI驱动的药物发现工作流奠定技术基础[3] 公司定位 - Absci系临床阶段生物技术公司总部位于华盛顿温哥华[5] - AMD拥有55年以上高性能计算技术创新历史[6] - Oracle提供集成云应用套件及自主基础设施服务[7]
Digital Realty Launches Innovation Lab to Accelerate AI and Hybrid Cloud Implementation
Prnewswire· 2025-09-10 11:00
公司战略与产品发布 - Digital Realty推出数据中心创新实验室DRIL 为合作伙伴和客户提供完全支持的真实数据中心测试环境 用于验证AI和混合云部署[1] - DRIL位于Digital Realty弗吉尼亚北部园区的实际运营托管数据中心内 现有客户可在实验室环境中配置新工作负载进行验证和优化 新客户可与公司及合作伙伴合作复制代表性架构[2] - 实验室支持高达150kW每机柜的高密度AI和HPC工作负载测试[5] - 通过ServiceFabric全球互联平台实现与云和网络提供商的无缝连接[2] - 企业可测试多地点延迟场景 确保跨地域和云目的地的无缝性能[5] 合作伙伴生态系统 - AMD在DRIL展示EPYC处理器和Instinct加速器在生产级高密度供电和液冷环境中的AI与HPC性能[4] - 思科通过全栈AI Pod测试帮助客户理解基础设施需求 涵盖边缘、RAG、训练和大规模推理场景[4] - CommScope提供从光纤铜缆到预端接布线系统的基础互联层 支持快速部署和可扩展性能[4][6] - 联想通过Neptune液冷基础设施解决AI驱动工作负载的挑战[6] - Supermicro利用最新数据处理能力服务器加速部署时间[6] - Vcinity消除距离和延迟障碍 实现数据实时访问和全局计算互联[6] - Zenlayer展示点对点连接、混合云计算和存储解决方案 支持亚太、中东、拉美和非洲市场扩张[6] 技术能力与基础设施 - ePlus AI体验中心支持企业探索AI特定电力、冷却和GPU资源需求[5] - 混合云验证功能通过直接云连接优化混合策略[5] - AI工作负载编排通过Private AI Exchange确保无缝集成和性能[5] - 弗吉尼亚北部园区作为主要测试站点 2026年初将在伦敦推出全球扩展[9] - 实验室构建于2024年与ePlus和Vertiv联合推出的AI体验中心基础上 专注于AI成果交付和技术优化[6] 市场定位与规模 - Digital Realty作为全球最大云和运营商中立数据中心提供商 拥有300+设施覆盖50+大都市区25+国家六大洲[10][11] - PlatformDIGITAL全球数据中心平台提供安全数据汇聚点和PDx架构解决方案 支持从云转型到AI等新兴技术[10] - 公司通过战略合作伙伴关系推动互联智能数字未来[8]
AMD Unveils Vision for an Open AI Ecosystem, Detailing New Silicon, Software and Systems at Advancing AI 2025
Globenewswire· 2025-06-12 18:30
文章核心观点 公司在2025年推进人工智能活动中展示端到端集成人工智能平台愿景和开放式可扩展机架级人工智能基础设施,宣布一系列软硬件解决方案以推动全谱人工智能发展,且与众多合作伙伴合作展示人工智能进展 [1][3] 公司发布领导性解决方案加速开放人工智能生态系统 - 公司宣布广泛的软硬件和解决方案组合以推动全谱人工智能发展,包括构建开放人工智能生态系统、ROCm生态系统持续增长、推出强大的开放式机架级设计和路线图 [3] - 公司推出Instinct MI350系列GPU,在生成式人工智能和高性能计算方面实现性能、效率和可扩展性的提升,AI计算能力提升4倍,推理能力提升35倍,MI355X每美元生成的令牌数比竞品多40% [4] - 公司展示端到端开放式标准机架级人工智能基础设施,已在超大规模部署中推出,预计2025年下半年广泛可用,还预览了下一代AI机架“Helios” [4] - 公司发布最新版本的开源人工智能软件堆栈ROCm 7,满足生成式人工智能和高性能计算工作负载需求,改善开发者体验 [4] - Instinct MI350系列实现能源效率提升38倍,超公司五年目标,还宣布到2030年将机架级能源效率提高20倍的新目标 [4] - 公司宣布面向全球开发者和开源社区广泛提供开发者云,降低下一代计算的使用门槛,与多家公司的战略合作证明了共同开发的开放解决方案的力量 [4] 广泛的合作伙伴生态系统展示由公司推动的人工智能进展 - 十大模型构建者和人工智能公司中有七家在Instinct加速器上运行生产工作负载,Meta、OpenAI等公司与公司合作,讨论如何使用公司的人工智能解决方案 [5] - Meta将Instinct MI300X广泛用于Llama 3和Llama 4推理,对MI350及其计算能力等表示期待,继续与公司在人工智能路线图上密切合作 [6] - OpenAI首席执行官讨论了整体优化的软硬件和算法的重要性,与公司在人工智能基础设施上密切合作,GPT模型在MI300X上投入生产,还参与MI400系列平台的深度设计 [6] - 甲骨文云基础设施率先采用公司的开放式机架级人工智能基础设施,利用公司的CPU和GPU为AI集群提供平衡、可扩展的性能,将提供由最新AMD Instinct处理器加速的zetta规模AI集群 [6] - HUMAIN与公司达成协议,利用公司提供的全谱计算平台构建开放、可扩展、有弹性且具有成本效益的人工智能基础设施 [6] - 微软宣布Instinct MI300X为Azure上的专有和开源模型提供支持 [6] - Cohere的高性能、可扩展Command模型部署在Instinct MI300X上,为企业级大语言模型推理提供高吞吐量、效率和数据隐私 [6] - 红帽与公司扩大合作,使生产就绪的人工智能环境成为可能,AMD Instinct GPU在红帽OpenShift AI上为混合云环境提供强大、高效的AI处理 [6] - Astera Labs强调开放的UALink生态系统加速创新并为客户带来更大价值,计划提供全面的UALink产品组合以支持下一代人工智能基础设施 [6] - Marvell与公司合作,作为UALink联盟的一部分开发开放式互连,为人工智能基础设施带来终极灵活性 [6] 公司发展背景 - 公司在高性能计算、图形和可视化技术领域推动创新超55年,全球数亿消费者、财富500强企业和领先科研机构依赖其技术 [5]
MiTAC Computing Showcases Strategic AI and Cloud Infrastructure Partnership with AMD at COMPUTEX 2025
Prnewswire· 2025-05-19 02:00
核心观点 - MiTAC Computing与AMD在COMPUTEX 2025上展示下一代服务器平台,涵盖AI、HPC、云原生和企业环境 [1] - 双方合作超过20年,专注于高性能、节能的AMD平台开发 [2] - 公司通过"One MiTAC"战略整合硬件与软件能力,提供端到端解决方案 [11] 产品与技术 AI与HPC创新 - **MiTAC G8825Z5**:8U服务器,支持双AMD EPYC™ 9005处理器和8个AMD Instinct™ MI325X GPU,6TB DDR5-6400内存,适用于大规模AI训练 [4] - **TYAN TN85-B8261**:2U双路GPU服务器,支持4个双槽GPU,24个DDR5-6400 RDIMM插槽,适用于深度学习 [5] - **MiTAC C2820Z5**:2OU 4节点液冷平台,双AMD EPYC™ 9005处理器,优化HPC能效 [6] 云基础设施 - **MiTAC M2810Z5**:2U 4节点单路服务器,每节点支持3TB DDR5-6400内存和4个E1.S存储,适合超大规模云环境 [7] - **TYAN HG68-B8016**:6U多节点平台,5个单路AMD EPYC™ 4005节点,DDR5-5600内存,优化云游戏和计算密集型负载 [8] 企业级平台 - **MiTAC TS70A-B8056**:2U单路服务器,支持26个NVMe U.2硬盘和24个DDR5-5200 DIMM插槽,适用于数据密集型应用 [9] 战略与合作 - 公司与AMD合作开发液冷技术,支持下一代AMD Instinct™ MI350 GPU [13] - 整合AMD CPU/GPU平台与自身全栈设计能力,覆盖政府、交通、金融和超大规模行业 [11] 未来方向 - 聚焦AI基础设施、HPC集群扩展、云原生设计和节能计算 [13] - 全球布局涵盖研发、制造和支持,结合AI与液冷技术提升创新效率 [15]