Workflow
NVIDIA NIM™
icon
搜索文档
NVIDIA Partners With Novo Nordisk and DCAI to Advance Drug Discovery
Globenewswire· 2025-06-11 10:52
文章核心观点 NVIDIA与诺和诺德合作通过创新AI用例加速药物发现工作,同时DCAI的Gefion超级计算机助力丹麦医疗生态系统发展 [1][5] 合作加速药物发现 - NVIDIA与诺和诺德合作加速药物发现,支持诺和诺德与DCAI使用Gefion主权AI超级计算机的协议 [1] - 双方旨在创建定制AI模型和代理,用于早期研究和临床开发,并应用先进模拟和物理AI技术 [2] - 诺和诺德将使用NVIDIA多个平台和服务进行药物发现、构建定制工作流和创建模拟环境 [3] - 诺和诺德研究人员聚焦多个AI研究项目,还将合作利用科学文献构建生物医学大语言模型 [4] 助力丹麦医疗生态系统 - DCAI拥有并运营丹麦旗舰AI超级计算机Gefion,降低先进计算能力获取门槛 [5] - 丹麦初创公司Teton利用Gefion加速AI护理伴侣开发,早期试验夜间接班职责最多减少25% [7] - 有制药公司用Gefion加速神经和精神疾病药物研发,还有公司用其加速口服替代药物开发 [8] - 丹麦卫生组织将用Gefion整合健康数据,方便分析数据、识别疾病模式和开发个性化治疗 [9]
NVIDIA DGX Cloud Lepton Connects Europe's Developers to Global NVIDIA Compute Ecosystem
Globenewswire· 2025-06-11 10:09
文章核心观点 NVIDIA宣布扩展DGX Cloud Lepton AI平台,联合多方合作伙伴,简化高性能GPU资源获取流程,加速AI应用开发与部署,推动全球AI创新发展 [1][5] 平台扩展与合作 - NVIDIA宣布扩展DGX Cloud Lepton平台,新增多家云服务提供商贡献GPU,AWS和微软Azure将首批参与 [1][2] - Hugging Face推出Training Cluster as a Service并与DGX Cloud Lepton集成,方便AI研究人员和开发者获取计算资源 [3] - NVIDIA与欧洲风投公司合作,为投资组合公司提供DGX Cloud Lepton市场信用额度,加速初创企业发展 [4] 平台优势 - DGX Cloud Lepton统一云AI服务和GPU容量,简化特定区域高性能GPU资源获取流程,支持数据治理和主权AI需求 [5] - 集成NVIDIA软件套件,加速AI应用开发和部署各阶段,支持多种大语言模型 [6] - 为云服务提供商提供管理软件,实时监控GPU健康并自动分析根本原因,减少人工干预和停机时间 [7] 早期客户案例 - Basecamp Research利用平台加速生物解决方案发现和设计,EY加速AI代理开发,Outerbounds助力客户构建AI产品 [9] - Mirror Physics等将通过DGX Cloud Lepton使用Hugging Face的Training Cluster as a Service,推进多领域AI模型研究 [10] - BioCorteX等初创企业将通过DGX Cloud Lepton获取计算资源,构建和部署应用 [12] - Prima Mente推进神经退行性疾病研究,Reflection构建智能编码系统 [16] 平台可用性 - 开发者可注册提前访问NVIDIA DGX Cloud Lepton [13]
NVIDIA Partners With Europe Model Builders and Cloud Providers to Accelerate Region's Leap Into AI
Globenewswire· 2025-06-11 09:57
文章核心观点 NVIDIA与欧洲和中东的模型构建者及云服务提供商合作优化主权大语言模型,助力该地区企业加速采用AI,构建本地化AI生态系统 [1] 合作主体 - NVIDIA与巴塞罗那超级计算中心、Bielik.AI、Dicta等模型构建者和AI联盟合作,用NVIDIA Nemotron技术优化模型 [2] - 模型的训练后处理和推理将在参与NVIDIA DGX Cloud Lepton市场的NVIDIA云合作伙伴的欧洲AI基础设施上运行 [3] 模型特点及应用 - 开放的主权模型将为反映当地语言和文化的区域AI生态系统提供基础,欧洲企业可在Perplexity上运行模型,还能通过与DGX Cloud Lepton的新集成在本地云合作伙伴基础设施上微调模型 [4] - NVIDIA合作伙伴提供支持欧洲24种官方语言的开放大语言模型,部分模型还专注于特定国家语言和文化 [6] - 大语言模型将采用NVIDIA Nemotron模型构建技术进行提炼,优化可降低运营成本并提升用户体验,相关工作负载将在欧洲云合作伙伴托管的DGX Cloud Lepton上运行 [7] - 开发者可使用支持超10万个大语言模型的新NIM微服务,将主权模型作为NVIDIA NIM微服务部署在AI工厂 [8] 与Perplexity合作 - Perplexity将把主权AI模型集成到其答案引擎中,为欧洲企业、出版商和组织服务,提升搜索查询和AI输出的准确性 [9] 模型可用性 - 欧洲模型构建者的首批提炼模型预计今年晚些时候推出 [10]
NVIDIA Announces DGX Cloud Lepton to Connect Developers to NVIDIA's Global Compute Ecosystem
GlobeNewswire News Room· 2025-05-19 04:43
文章核心观点 NVIDIA宣布推出AI平台DGX Cloud Lepton,连接全球开发者与云提供商的数万个GPU,同时宣布Exemplar Clouds助力云合作伙伴提升性能 [1][4] 产品发布 - NVIDIA宣布推出AI平台DGX Cloud Lepton,其计算市场连接开发者与全球云提供商的数万个GPU [1] - NVIDIA宣布Exemplar Clouds,帮助云合作伙伴提升安全、可用性、性能和弹性 [4] 云提供商参与情况 - CoreWeave、Crusoe等多家公司将在DGX Cloud Lepton市场提供NVIDIA GPU [2] - Yotta Data Services是亚太地区首个加入NVIDIA Exemplar Cloud计划的云合作伙伴 [5] 平台优势 对开发者 - 可按需和长期使用特定区域的GPU计算能力,支持战略和主权AI运营需求 [3] - 提供统一体验,提高生产力和灵活性,可直接从云提供商购买GPU容量或自带计算集群 [8] - 实现AI应用在多云和混合环境的轻松部署,减少运营负担 [8] - 让开发者快速获取特定区域的GPU资源,符合数据主权法规并满足低延迟需求 [8] 对云提供商 - 提供管理软件,实现实时GPU健康诊断和自动根本原因分析,减少手动操作和停机时间 [4] - 为云提供商提供企业级性能、可靠性和安全性,确保用户体验一致 [8] 平台集成与工具 - 与NVIDIA软件栈集成,加速和简化AI应用开发与部署 [3] - NVIDIA Exemplar Clouds利用DGX Cloud Benchmarking优化AI平台工作负载性能 [5] 产品可用性 - 开发者可申请提前访问NVIDIA DGX Cloud Lepton [6]
NVIDIA Dynamo Open-Source Library Accelerates and Scales AI Reasoning Models
Globenewswire· 2025-03-18 18:17
文章核心观点 - NVIDIA推出开源推理软件Dynamo,可加速和扩展AI推理模型,以最低成本和最高效率运行AI工厂,提高推理性能并降低成本,增加代币收入 [1][3] 产品介绍 - Dynamo是NVIDIA Triton Inference Server™的继任者,可协调和加速跨数千个GPU的推理通信,采用分离式服务优化大语言模型处理和生成阶段,确保GPU资源最大利用率 [3] - 同一数量GPU下,Dynamo使运行Llama模型的AI工厂性能和收入翻倍,运行DeepSeek - R1模型时每GPU生成代币数量提升超30倍 [4] - 具备动态调整GPU、定位特定GPU、卸载推理数据等功能,可提高吞吐量并降低成本 [5] - 完全开源,支持多种框架,可让企业、初创公司和研究人员开发和优化AI模型服务方式,加速AI推理采用 [6] 应用案例 - 映射推理系统内存知识,将新推理请求路由到匹配GPU,避免重复计算,释放GPU响应新请求 [7] - Perplexity AI期待利用Dynamo增强分布式服务能力,提高推理服务效率,满足新AI推理模型计算需求 [8] - Cohere计划用Dynamo为其Command系列模型提供代理AI功能,认为其有助于为企业客户提供优质用户体验 [8][9] - 支持分离式服务,将大语言模型不同计算阶段分配到不同GPU,适用于新NVIDIA Llama Nemotron模型家族,可提高吞吐量和响应速度 [9] - Together AI计划将其推理引擎与Dynamo集成,实现推理工作负载跨GPU节点无缝扩展,动态解决模型管道各阶段流量瓶颈 [10] 关键创新 - GPU Planner:动态添加和移除GPU,适应波动的用户需求,避免GPU过度或供应不足 [14] - Smart Router:引导请求跨大型GPU集群,减少重复或重叠请求的GPU重新计算,释放GPU响应新请求 [14] - Low - Latency Communication Library:支持先进的GPU到GPU通信,抽象异构设备数据交换复杂性,加速数据传输 [14] - Memory Manager:智能地将推理数据卸载和重新加载到低成本内存和存储设备,不影响用户体验 [15] 产品可用性 - 将在NVIDIA NIM™微服务中提供,并在未来版本的NVIDIA AI Enterprise软件平台中得到支持,具备生产级安全、支持和稳定性 [15]