Workflow
NVIDIA NIM™ microservices
icon
搜索文档
NVIDIA DGX Spark Arrives for World's AI Developers
Globenewswire· 2025-10-13 23:39
产品发布与定位 - 英伟达于2025年10月13日宣布开始发货DGX Spark,这是世界上最小的AI超级计算机 [2] - 该产品旨在解决AI工作负载快速增长,超出当前PC、工作站和笔记本电脑内存与软件能力的问题,使开发者无需将工作转移到云端或本地数据中心 [2] - DGX Spark被定义为一类新型计算机,将完整的英伟达AI平台集成到一个桌面尺寸的系统中,足以加速智能体和物理AI的开发 [5] 性能与规格 - DGX Spark提供1 petaflop的AI性能,并配备128GB统一内存 [3] - 其性能足以在本地运行高达2000亿参数的AI模型推理,并对高达700亿参数的模型进行微调 [3] - 与2016年的DGX-1相比,DGX Spark的AI性能从170 TFLOPS提升至1 PFLOP,系统功耗从3200W大幅降低至240W,尺寸和重量显著减小,价格从129,000美元降至3,999美元 [5] - 该系统由NVIDIA GB10 Grace Blackwell Superchip、ConnectX-7 200 Gb/s网络和NVLink-C2C技术加速,提供比第五代PCIe高5倍的带宽 [6] 战略意义与生态系统 - 公司创始人兼CEO黄仁勋将DGX Spark的发布与2016年向OpenAI交付首台DGX-1相提并论,旨在将AI计算机交到每位开发者手中以激发下一波突破 [4] - 包括宏碁、华硕、戴尔、技嘉、惠普、联想和微星在内的合作伙伴将推出DGX Spark系统,以扩大对强大AI计算的访问 [7] - 预装的NVIDIA AI软件栈使开发者能够开箱即用地启动AI项目,并可访问包括模型、库和NVIDIA NIM微服务在内的生态系统工具 [6][8] - 早期接收者包括Anaconda、Cadence、ComfyUI、Docker、谷歌、Hugging Face、JetBrains、LM Studio、Meta、微软、Ollama和Roboflow等,他们正在为DGX Spark测试和优化其工具与模型 [10] 市场反响与供应 - 纽约大学全球前沿实验室的教授表示,DGX Spark使团队能在桌面上进行peta级计算,快速原型化和实验高级AI算法,尤其适用于医疗保健等隐私和安全敏感的应用 [11] - 从10月15日(周三)起,DGX Spark可在NVIDIA官网订购,合作伙伴系统将通过宏碁、华硕、戴尔、技嘉、惠普、联想、微星以及美国的Micro Center商店和全球渠道合作伙伴提供 [11] - 为庆祝全球发货,黄仁勋亲自将首批DGX Spark之一交付给了SpaceX首席工程师埃隆·马斯克,重现了2016年交付首台DGX-1的历史场景 [9]
NVIDIA Launches Family of Open Reasoning AI Models for Developers and Enterprises to Build Agentic AI Platforms
Globenewswire· 2025-03-18 19:10
产品发布核心 - 公司宣布推出具有推理能力的开放Llama Nemotron模型家族,旨在为开发者和企业提供业务就绪的基础,以创建能独立或协同工作解决复杂任务的高级AI智能体 [1] - 新模型家族基于Llama模型构建,通过后期训练增强了多步骤数学、编码、推理和复杂决策能力 [2] 性能与效率提升 - 与基础模型相比,精调过程将模型准确率提升高达20%,并比其他领先的开放推理模型优化推理速度达5倍 [3] - 推理性能的改进使模型能处理更复杂的推理任务,增强决策能力并降低企业运营成本 [3] 行业合作与整合 - 包括埃森哲、Amdocs、Atlassian、Box、Cadence、CrowdStrike、德勤、IQVIA、微软、SAP和ServiceNow在内的领先AI智能体平台先驱正与公司合作 [4] - 微软将Llama Nemotron推理模型和NIM微服务集成到Microsoft Azure AI Foundry中,扩展了模型目录以增强Azure AI Agent Service for Microsoft 365等服务 [7] - SAP利用Llama Nemotron模型推进SAP Business AI解决方案和AI助手Joule,并使用NIM和NeMo微服务提高SAP ABAP编程语言模型的代码补全准确率 [8] - ServiceNow利用Llama Nemotron模型构建性能更高、更准确的AI智能体,以提升各行业的企业生产力 [9] - 埃森哲在其AI Refinery平台上提供NVIDIA Llama Nemotron推理模型,使客户能快速开发和部署针对行业特定挑战的定制AI智能体 [10] - 德勤计划将Llama Nemotron推理模型整合到其Zora AI智能体平台中,该平台旨在支持和模拟人类决策与行动 [11] 产品规格与可用性 - Llama Nemotron模型家族以NVIDIA NIM微服务形式提供,分为Nano、Super和Ultra三种规格,分别针对不同部署需求进行优化 [5] - Nano型号在PC和边缘设备上提供最高准确率,Super型号在单个GPU上提供最佳准确率和最高吞吐量,Ultra型号在多GPU服务器上提供最大智能体准确率 [5] - NVIDIA Llama Nemotron Nano和Super模型及NIM微服务可通过build.nvidia.com和Hugging Face作为托管API获取,NVIDIA开发者计划成员可免费用于开发、测试和研究 [12] 配套软件与工具 - NVIDIA AI Enterprise软件平台提供最新的智能体AI构建模块,包括NVIDIA AI-Q Blueprint,使企业能够将知识与能自主感知、推理和行动的AI智能体连接起来 [15] - NVIDIA AI数据平台是一个可定制的参考设计,用于构建带有基于AI-Q Blueprint的AI查询代理的新型企业基础设施 [15] - 新的NVIDIA NIM微服务优化复杂智能体AI应用的推理,并支持在任何环境中进行持续学习和实时适应 [15] - NVIDIA NeMo微服务提供一个高效、企业级的解决方案,用于快速建立和维护强大的数据飞轮,使AI智能体能从人类和AI生成的反馈中持续学习 [15] - NVIDIA AI-Q Blueprint预计于4月可用,NVIDIA AgentIQ工具包现已在GitHub上提供 [16]
NVIDIA Blackwell RTX PRO Comes to Workstations and Servers for Designers, Developers, Data Scientists and Creatives to Build and Collaborate With Agentic AI
GlobeNewswire News Room· 2025-03-18 19:01
产品发布 - 英伟达推出RTX PRO Blackwell系列GPU 包括数据中心 桌面和笔记本电脑版本 重新定义AI 技术 创意 工程和设计领域工作流程 [1][2][4] - 新产品线涵盖数据中心GPU RTX PRO 6000 Blackwell Server Edition 桌面GPU包括RTX PRO 6000/5000/4500/4000 Blackwell及Max-Q版本 笔记本GPU包括RTX PRO 5000至500 Blackwell系列 [4] 技术规格 - 采用新一代NVIDIA流式多处理器 吞吐量提升1.5倍 集成AI的神经着色器推动AI增强图形创新 [5] - 第四代RT核心性能提升2倍 支持物理精确场景和复杂3D设计 第五代Tensor核心提供每秒4,000万亿次AI运算 支持FP4精度和DLSS 4多帧生成 [5] - 配备更快GDDR7内存 工作站和服务器版本最高96GB 笔记本版本最高24GB 支持处理更大数据集 [5] - 第九代NVENC加速视频编码 第六代NVDEC提供双倍H264解码吞吐量 第五代PCIe带宽翻倍 DisplayPort 21支持4K 480Hz和8K 165Hz显示 [5] - 支持多实例GPU技术 RTX PRO 6000系列可分割为4个实例 5000系列可分割为2个实例 实现安全资源分配 [5][6] 性能表现 - Foster + Partners测试显示Cyclops光线追踪产品运行速度达前代RTX A6000的5倍 渲染速度提升5倍 [10] - GE Healthcare工程团队评估发现重建算法处理时间有望提升2倍 [10] - Rivian表示结合Varjo XR4头显实现沉浸式汽车设计所需清晰度 通过PCIe Gen5支持双600W GPU实现最高像素密度 [11] - SoftServe使用96GB内存版本处理Llama 33-70B和Mixtral 8x7b等AI模型 生产力提升3倍 工作站可处理原需云端完成的工作负载 [11] 应用生态 - 支持NVIDIA AI平台 CUDA和RTX技术 加速超过400个CUDA-X库 推理速度显著提升 [11] - 企业可通过NVIDIA Omniverse和AI Enterprise平台进行本地原型开发 使用NIM微服务获得企业级推理支持 [12][13] - 适用于医疗保健 制造 零售 媒体娱乐等行业 支持虚拟化环境通过vGPU软件为远程用户提供高性能虚拟工作站 [8][9] 上市计划 - RTX PRO 6000 Blackwell Server Edition将通过思科 戴尔 慧与 联想和超微等服务器合作伙伴提供 [14] - AWS 谷歌云 微软Azure和CoreWeave等云服务提供商将在今年下半年提供基于该GPU的实例 [15] - 华硕 技嘉 英业达和广达等系统合作伙伴的数据中心平台将搭载服务器版本GPU [15] - 工作站版本RTX PRO 6000 Blackwell及Max-Q版本4月通过PNY和TD SYNNEX分销 5月通过BOXX 戴尔 惠普和联想等制造商提供 [16] - RTX PRO 5000/4500/4000 Blackwell夏季上市 笔记本GPU将于今年晚些时候由戴尔 惠普 联想和雷蛇推出 [16][17]