Workflow
NVIDIA DGX Spark
icon
搜索文档
难怪高通急了
半导体行业观察· 2025-12-18 01:02
文章核心观点 - 联发科凭借其在云端ASIC设计服务领域的核心技术(特别是SerDes)和深度绑定头部客户(如谷歌、Meta)的策略,正迎来订单与盈利的爆发式增长,成功开辟了高利润的新增长曲线,市场对其价值存在重估空间 [1][4][19] - 高通尽管财务表现稳健,但过度依赖增长见顶的手机业务,在AI算力等新增长领域进展缓慢且战略模糊,其通过密集收购进行多元化的策略与当年英特尔面临相似挑战,能否有效整合并形成清晰战略方向是成败关键 [7][9][15][17] - AI时代的半导体竞争逻辑正在转变,专注核心技术与深度客户协作带来的执行力和交付能力,比广泛但分散的多元化布局更具优势,联发科与高通的现状对比是这一趋势的直观体现 [19][20] 联发科:AI与ASIC业务突破 - **订单与产能爆发**:联发科为谷歌操刀的TPU v7e将于2026年Q1末风险性试产,并已拿下TPU v8e订单,其向台积电协商的CoWoS年产能从2026年约1万片倍增至2万片,2027年更暴增至15万片以上,是2026年的七倍以上 [1] - **盈利贡献巨大**:市场估算,仅TPU v7e从2026年至2027年的出货,总计可为联发科贡献超过两个股本的获利,公司CEO设定的2026年云端ASIC相关营收10亿美元、2027年达数十亿美元的目标被认为保守 [1] - **试产即量产模式**:由于谷歌需求强劲,v7e风险性试产的产出将视同量产产品供应,这种模式能快速满足客户需求并为联发科带来业绩贡献 [2] - **核心技术优势**:联发科的核心竞争力在于其SerDes技术,其112Gb/s DSP在4纳米制程上实现超过52dB损耗补偿,并已推出专为数据中心的224G SerDes且完成硅验证 [4] - **客户与市场拓展**:除了谷歌,联发科即将获得Meta一款2纳米工艺ASIC(代号Arke)的大额订单,预计2027年上半年量产,同时与英伟达的合作已扩展至IP领域及共同设计GB10 Grace Blackwell超级芯片 [4][5] - **业务转型动因**:ASIC设计服务为联发科提供了比竞争激烈的手机芯片市场更高的利润率和更稳定的客户关系,是其关键突破口 [5] 高通:增长焦虑与战略挑战 - **营收结构隐忧**:高通2025财年Q4总营收112.7亿美元(同比增长10%),但手机芯片业务营收69.6亿美元(增长14%)仍占总营收62%以上,汽车(10.5亿美元)和物联网(18.1亿美元)业务规模远小于手机业务 [8] - **核心业务面临压力**:全球智能手机市场增长放缓、竞争加剧,同时联发科在高端SoC持续逼近,苹果推进自研调制解调器,削弱了高通的确定性,高利润率的授权业务营收当季同比下滑7% [8][9] - **AI布局进展缓慢**:在博通、Marvell、联发科等已获AI芯片大单时,高通仍主要被视为“手机芯片公司”,其AI200与AI250服务器级加速芯片计划于2026、2027年推出,但尚未形成清晰的规模性收入贡献 [9][16] - **密集收购以换时间**:2025年高通加速并购,包括以24亿美元收购SerDes IP领导者Alphawave Semi,收购边缘AI公司Edge Impulse、开源硬件公司Arduino及RISC-V初创公司Ventana Micro Systems等 [11] - **收购策略的成效与疑问**:收购Nuvia获得的Oryon CPU核心在PC市场成功商业化,但2025年的收购更多解决“能力是否齐备”问题,无法短期内改变对手机业务的依赖,且面临资源分散、整合与战略方向不清晰的挑战 [12][13][17] - **与英特尔历史的相似性**:两者都高度依赖单一核心业务(英特尔x86 vs. 高通手机芯片),并在业绩未崩塌时通过激进收购寻求多元化,但英特尔当年大量收购因战略不清晰导致整合失败、资源浪费 [13][14][15] 行业竞争逻辑演变 - **路径对比:专注 vs. 多元**:联发科选择“窄而深”路线,专注ASIC设计服务细分赛道并将SerDes等关键技术做到极致,深度绑定头部客户稳步推进;高通则在多重不确定性中试探,业务横跨PC、服务器、AI芯片和物联网,但缺乏清晰主线和决定性突破 [19] - **竞争要素转变**:AI时代的竞争逻辑正在变化,专注核心技术的持续深挖、深度客户关系与定制化协作能力比单一产品规格领先更重要,执行与交付能力比宏大战略叙事更关键 [20] - **时间窗口紧迫**:联发科已从谷歌TPU订单中获得实际回报,而高通仍在为2026年及以后的产品做准备,在高速发展的AI芯片市场,这种时间差可能直接转化为机会成本 [20]
黄仁勋送马斯克的3万块个人超算,要借Mac Studio才能流畅运行?首批真实体验来了
搜狐财经· 2025-11-22 07:19
产品定位与目标用户 - 产品为NVIDIA DGX Spark,定位为个人AI超级计算机,目标用户是科研人员、数据科学家和学生等群体,旨在提供高性能桌面级AI计算能力以支持AI模型开发和创新[8] - 售价为3万元人民币,被称作“全球最小超算”,具备2000亿参数处理能力和128GB内存[1][5] 核心性能表现 - 设备AI核心能力定位在RTX 5070和RTX 5070 Ti之间,能处理1200亿参数的大模型,总体性能优于Mac Mini M4 Pro(10999元版本)[11][15][21] - 在Prefill(预填充)阶段表现出色,批量大小为1时Prefill TPS达7,991,但Decode(解码)阶段性能受限,同条件下Decode TPS仅20.52,显示出算力强但数据传输慢的特点[11][23][24] - 最大短板为内存带宽仅273 GB/s(使用LPDDR5X内存),而对比产品如RTX 5090带宽达1800 GB/s,这导致Decode阶段性能成为瓶颈[13][31] 应用场景与玩法 - 官方提供超过20种开箱即用玩法,包括生成视频、搭建多智能体助手等AI全家桶功能[13][47] - 实际应用案例包括本地AI视频生成(使用ComfyUI框架和阿里Wan 2.2 14B模型)、并行运行多个LLMs和VLMs实现智能体交互等[37][45][47] - 典型用户玩法包括本地运行大模型确保数据安全、不受限制生成图片视频、打造私人助理等[8][9] 性能优化方案 - 有团队采用PD分离方案,将Decode阶段交给带宽更高的Mac Studio M3 Ultra(带宽819 GB/s),使整体推理速度提升2.8倍,但成本增至近10万元[32][33][34] - 通过流水线式分层计算与传输实现计算和传输时间重叠,优化了DGX Spark带宽限制问题[33] 生态与兼容性 - 设备获得LM Studio等桌面工具支持,社区有Reddit用户开展AMA活动分享测试结果[44][53] - 兼容性方面,有用户尝试运行nanochat项目但面临兼容性问题和长时间训练挑战(对比8xH100芯片训练需4小时,RTX 4090需约100小时)[56][57][58]
AI需求爆棚!Q3英伟达数据中心营收破500亿美元
搜狐财经· 2025-11-20 10:54
核心财务表现 - 2025财年第三季度总营收达570.1亿美元,创历史新高,环比增长22%,同比增长62% [2][3] - 数据中心业务营收为512亿美元,同比增长66%,是公司最核心的增长引擎 [2][4] - GAAP与非GAAP口径下毛利率分别达到73.4%和73.6%,维持在高位 [2][3] - 摊薄每股收益为1.30美元,同比增长67% [2][3] - 净收益为319.1亿美元,同比增长65% [3] 业务板块表现 - 游戏业务收入为43亿美元,环比下降1%,同比增长30% [5] - 专业视觉业务收入为7.6亿美元,环比增长26%,同比增长56% [5] - 汽车业务收入为5.92亿美元,环比增长1%,同比增长32% [5] 管理层评论与战略重点 - 首席执行官黄仁勋指出Blackwell平台需求远超预期,云端GPU已售罄,训练和推理领域的计算需求呈指数级增长 [4] - 公司认为已进入AI的良性循环,AI生态系统正在快速扩张,覆盖更多行业和国家 [4] - 2026财年前三季度通过股票回购和现金分红向股东回报370亿美元,截至季末仍有622亿美元股票回购授权剩余 [4] 数据中心业务亮点 - Blackwell平台在基准测试中显示其每兆瓦吞吐量达到上一代产品的10倍 [4] - 与OpenAI合作,将为其下一代AI基础设施部署至少10吉瓦的NVIDIA系统 [4] - 与Google Cloud、微软、Oracle和xAI等业界领导者合作,将共同部署数十万块GPU构建AI基础设施 [4] - 宣布Anthropic将首次在NVIDIA基础设施上运营和扩展,并与英特尔合作开发多代定制化产品 [4] 市场观点与机构动向 - 公司业绩被视为检验人工智能热潮成色的“试金石”,直接反映科技巨头AI投资的真实回报 [6] - 部分知名投资者采取看空行动,“大空头”Michael Burry旗下基金买入看跌期权,并警告AI存在泡沫 [6] - 软银集团在10月份以58.3亿美元的价格出售了其持有的全部3210万股公司股票 [6] - 硅谷创投教父Peter Thiel的对冲基金在第三季度清仓公司股份,桥水基金大砍65%的持仓 [6] - 业内人士认为机构减持源于对AI资本开支可持续性的质疑,以及高估值和持仓集中的影响 [6] - 尽管遭遇抛售,公司股价年内仍上涨35%,涨幅是纳斯达克100指数的两倍多 [7]
NVIDIA, MediaTek Co-Design GB10 Superchip for New DGX Spark Personal AI Supercomputer
Yahoo Finance· 2025-10-21 09:37
产品合作与技术规格 - 英伟达与联发科于10月15日宣布共同设计GB10 Grace Blackwell超级芯片,该芯片为新发布的NVIDIA DGX Spark提供动力[1] - GB10超级芯片结合了最新一代Blackwell GPU和20核Grace Arm CPU,提供128GB统一内存和高达1 PFLOP的AI性能[2] - DGX Spark个人AI超级计算机允许开发者在本地处理高达2000亿参数的大型AI模型,连接两个系统后可处理高达4050亿参数的模型推理[3] 产品定位与市场 - DGX Spark是一款为开发者设计的个人AI超级计算机,用于在桌面上进行AI模型的原型设计、微调和推理[1] - 该系统功耗效率高,可使用标准电源插座,并采用紧凑设计易于放置在桌面上[3] - 英伟达是一家计算基础设施公司,在美国、新加坡、台湾、中国、香港及全球提供图形和计算与网络解决方案[4]
NVIDIA DGX Spark 评测:首款PC太酷了
半导体行业观察· 2025-10-15 02:48
文章核心观点 - 英伟达推出的DGX Spark是一款基于Arm架构、GB10片上系统的迷你AI超级计算机,其核心价值在于以3000至4000美元的相对低价,提供了高达128 GB的统一内存,使其能够运行或微调参数规模高达2000亿或700亿的大型语言模型,而这类任务通常需要数万美元的多GPU高端工作站[2][3] - 该设备并非追求单项性能最快,其GPU性能在大型语言模型推理、微调和图像生成方面甚至不及消费级的RTX 5090,但其通过牺牲部分性能和带宽换取了超大内存容量,从而能够处理消费级显卡因显存不足而无法运行的工作负载,降低了专业AI开发的门槛[2][3] - DGX Spark的定位是AI开发平台,其真正的竞争对手并非消费级或工作站GPU,而是苹果M4 Mac Studio、AMD Ryzen AI Max+ 395等同样具备统一内存架构的系统,在软件生态上则凭借成熟的CUDA平台占据优势[62][63] 产品硬件配置与设计 - **核心芯片**:采用英伟达GB10片上系统,该芯片是Grace Blackwell超级芯片的缩小版,基于台积电3nm工艺,包含一个20核Arm CPU和一个基于Blackwell架构的GPU[22][24] - **关键规格**: - 配备128 GB LPDDR5x统一内存,带宽为273 GBps,是其产品线中内存最大的工作站GPU[3][24] - GPU拥有6,144个CUDA核心、192个第五代Tensor核心,FP4精度下稀疏计算性能达1 petaFLOPS,密集计算性能为500 teraFLOPS[24][25] - 存储为4 TB NVMe,提供4个USB 3.2接口、1个10GbE网口,并集成了ConnectX-7 200 Gbps网卡和WiFi 7[19][25] - **外观与尺寸**:设计紧凑,尺寸为150毫米 x 150毫米 x 50.5毫米,重量1.2公斤,采用镀金外壳[6][25] 性能表现分析 - **微调能力**:凭借大内存,可对Mistral 7B等模型进行全面微调,或使用LoRA/QLoRA技术对Llama 3.3 70B等模型进行微调,而消费级显卡会因显存不足而失败[36][38] - 在100万标记的数据集上微调300亿参数的Llama 3.2模型,耗时约1.5分钟[38] - 对比显示,虽然RTX 6000 Ada计算速度更快,但其48 GB显存在处理更大模型或序列时将成为瓶颈[38] - **图像生成**:能够以原生BF16精度运行120亿参数的FLUX.1 Dev等扩散模型,而RTX 3090 Ti因仅有24 GB显存无法运行[40] - 生成单张图像耗时约97秒,虽慢于RTX 6000 Ada的37秒,但可利用其大内存对模型进行约4小时的微调,该过程占用超过90 GB内存[40][41] - **LLM推理性能**: - **单批次推理**:在Llama.cpp、vLLM和TensorRT LLM三种运行器中,Llama.cpp在标记生成率上表现最佳,而TensorRT在首个标记生成时间上优势明显[43][46] - **长上下文处理**:使用TensorRT运行gpt-oss-120B模型,当输入长度从4096标记增至65536标记时,首个标记生成时间从约50毫秒增至超过200毫秒,生成吞吐量下降,但仍展示了Blackwell架构FP4加速的优势[47][49] - **多批次性能**:在处理1024输入/1024输出标记的任务时,性能在批次大小达到32时趋于饱和[55][57] - **在线服务模拟**:在4个并发用户下,可维持每用户17 tok/s的生成速率;在64个并发请求下,首个标记生成时间仍低于700毫秒,但生成速率降至4 tok/s,显示系统受内存带宽限制[59][61] 软件生态系统与易用性 - **操作系统**:预装基于Ubuntu 24.04 LTS定制的DGX OS,已集成CUDA工具包、驱动程序、Docker等,减少了初始设置时间[27][29] - **开发支持**:英伟达提供了详尽的文档、教程和演示脚本,涵盖从AI代码助手到视频摘要等多种应用,旨在降低机器学习入门门槛[30][32] - **兼容性**:基于成熟的CUDA运行时生态,确保现有代码可开箱即用,相较于苹果Metal和AMD ROCm生态有优势[3][4] 市场竞争与定位 - **直接竞品对比**: - **苹果M4 Max Mac Studio**:起价3499美元,内存带宽更高(546 GBps),可选内存高达512 GB,但价格更贵且运行Metal生态[63][64] - **AMD Ryzen AI Max+ 395**:预计价格低于英伟达,FP16/BF16计算性能估计为59 teraFLOPS,内存带宽256 GBps,运行ROCm/HIP生态[63] - **英伟达Jetson Thor**:同为英伟达产品,售价3499美元,提供双倍的稀疏FP4计算性能(1000 teraFLOPS)和同等128 GB内存,但I/O带宽较低,定位为机器人开发平台[63][64] - **市场定位**:DGX Spark主要面向需要本地运行大型AI模型的机器学习开发者、数据科学家及小团队,作为相对实惠的AI工作站或推理服务器,不适合追求极致游戏或通用计算性能的用户[34][62][66]
投资xAI后,黄仁勋向马斯克交付全球最小AI超级计算机
搜狐财经· 2025-10-14 08:49
产品发布与交付 - 英伟达于10月13日宣布全球迄今为止最小的AI超级计算机NVIDIA DGX Spark正式交付 [1] - DGX Spark原计划于7月上市,后因GB10系统级芯片的技术复杂性导致发售延迟,如今终于实现正式交付 [5] - 首批DGX Spark已交付给包括埃隆·马斯克的SpaceX、谷歌、Meta、微软等科技公司进行测试、验证和优化 [1] 产品性能与技术规格 - DGX Spark以小巧的桌面机形态提供1 PFLOP AI性能和128GB统一内存 [2] - 开发者能够在本地运行最高2000亿参数的AI模型推理以及对700亿参数的模型进行微调 [2] - 系统搭载NVIDIA GB10 Grace Blackwell超级芯片、NVIDIA ConnectX®-7 200Gb/s网卡及NVIDIA NVLink™-C2C技术,其带宽是第五代PCIe的5倍,并配备128GB CPU-GPU一致性内存 [5] 战略合作与生态建设 - 宏碁、华硕、戴尔、惠普、联想等以及各Micro Center门店和全球英伟达渠道合作伙伴也将销售合作厂商机型 [1] - 通过DGX Spark,开发者可访问包括模型、库及NVIDIA NIM微服务在内的NVIDIA AI生态系统工具,建立本地工作流 [5] - 马斯克的xAI近期收获英伟达投资,英伟达计划在交易的股权部分投资高达20亿美元,此次融资完成后,xAI本轮融资总额有望达到200亿美元 [5][6] 公司财务与市场表现 - 英伟达2026财年第二财季整体营收实现467.43亿美元,同比增长56%,略高于市场预期的462.3亿美元 [6] - 公司预计2026财年第三财季营收将达到540亿美元,GAAP和非GAAP的毛利率将分别达到73.3%和73.5% [6] - 年初至今,英伟达股价涨幅超过80%,市值已高达4.58万亿美元,远高于微软的3.82万亿美元和苹果的3.68万亿美元 [6]
英伟达AI超级计算机DGX Spark 正式交付
每日经济新闻· 2025-10-14 04:24
产品发布 - 公司宣布交付新一代AI超级计算机NVIDIA DGX Spark [1] - 该产品被描述为全球迄今为止最小的AI超级计算机 [1] - 产品提供1 PFLOP的AI性能与128GB统一内存 [1] 产品性能与应用 - 开发者能在本地运行最高2000亿参数的AI模型推理 [1] - 开发者能对700亿参数的模型进行微调 [1] - 开发者可通过该产品在本地创建AI智能体和运行高级软件堆栈 [1]
NVIDIA DGX Spark Arrives for World's AI Developers
Globenewswire· 2025-10-13 23:39
产品发布与定位 - 英伟达于2025年10月13日宣布开始发货DGX Spark,这是世界上最小的AI超级计算机 [2] - 该产品旨在解决AI工作负载快速增长,超出当前PC、工作站和笔记本电脑内存与软件能力的问题,使开发者无需将工作转移到云端或本地数据中心 [2] - DGX Spark被定义为一类新型计算机,将完整的英伟达AI平台集成到一个桌面尺寸的系统中,足以加速智能体和物理AI的开发 [5] 性能与规格 - DGX Spark提供1 petaflop的AI性能,并配备128GB统一内存 [3] - 其性能足以在本地运行高达2000亿参数的AI模型推理,并对高达700亿参数的模型进行微调 [3] - 与2016年的DGX-1相比,DGX Spark的AI性能从170 TFLOPS提升至1 PFLOP,系统功耗从3200W大幅降低至240W,尺寸和重量显著减小,价格从129,000美元降至3,999美元 [5] - 该系统由NVIDIA GB10 Grace Blackwell Superchip、ConnectX-7 200 Gb/s网络和NVLink-C2C技术加速,提供比第五代PCIe高5倍的带宽 [6] 战略意义与生态系统 - 公司创始人兼CEO黄仁勋将DGX Spark的发布与2016年向OpenAI交付首台DGX-1相提并论,旨在将AI计算机交到每位开发者手中以激发下一波突破 [4] - 包括宏碁、华硕、戴尔、技嘉、惠普、联想和微星在内的合作伙伴将推出DGX Spark系统,以扩大对强大AI计算的访问 [7] - 预装的NVIDIA AI软件栈使开发者能够开箱即用地启动AI项目,并可访问包括模型、库和NVIDIA NIM微服务在内的生态系统工具 [6][8] - 早期接收者包括Anaconda、Cadence、ComfyUI、Docker、谷歌、Hugging Face、JetBrains、LM Studio、Meta、微软、Ollama和Roboflow等,他们正在为DGX Spark测试和优化其工具与模型 [10] 市场反响与供应 - 纽约大学全球前沿实验室的教授表示,DGX Spark使团队能在桌面上进行peta级计算,快速原型化和实验高级AI算法,尤其适用于医疗保健等隐私和安全敏感的应用 [11] - 从10月15日(周三)起,DGX Spark可在NVIDIA官网订购,合作伙伴系统将通过宏碁、华硕、戴尔、技嘉、惠普、联想、微星以及美国的Micro Center商店和全球渠道合作伙伴提供 [11] - 为庆祝全球发货,黄仁勋亲自将首批DGX Spark之一交付给了SpaceX首席工程师埃隆·马斯克,重现了2016年交付首台DGX-1的历史场景 [9]
NVIDIA Announces Isaac GR00T N1 — the World's First Open Humanoid Robot Foundation Model — and Simulation Frameworks to Speed Robot Development
Newsfilter· 2025-03-18 19:08
文章核心观点 NVIDIA宣布一系列助力人形机器人开发的技术,包括世界首个开放式、完全可定制的通用人形推理和技能基础模型Isaac GR00T N1,以及模拟框架、蓝图和开源物理引擎等,有望推动机器人行业变革[1][2][3] 分组1:GR00T N1模型介绍 - GR00T N1是NVIDIA将预训练并发布给全球机器人开发者的可定制模型家族中的首个模型,可加速受全球超5000万劳动力短缺挑战行业的转型[3] - GR00T N1具有受人类认知原理启发的双系统架构,“系统1”是快速思考的行动模型,“系统2”是用于深思熟虑决策的慢思考模型[4] - GR00T N1能跨常见任务进行泛化或执行多步骤任务,开发者和研究人员可针对特定人形机器人或任务用真实或合成数据对其进行后训练[6] 分组2:合作开发物理引擎 - NVIDIA与Google DeepMind和Disney Research合作开发开源物理引擎Newton,用于让机器人更精确地处理复杂任务[9] - Newton基于NVIDIA Warp框架构建,将针对机器人学习进行优化,并与多种模拟框架兼容,三家公司还计划让其使用Disney的物理引擎[10] 分组3:其他合作与进展 - Google DeepMind和NVIDIA合作开发的MuJoCo - Warp预计将使机器人机器学习工作负载加速超70倍,将通过Google DeepMind的MJX开源库和Newton提供给开发者[12] - Disney Research将率先使用Newton推进其机器人角色平台,NVIDIA、Disney Research和Intrinsic还宣布合作构建机器人数据工作流的OpenUSD管道和最佳实践[13][14] 分组4:数据解决方案 - NVIDIA Isaac GR00T蓝图可帮助解决机器人开发中数据集获取成本高的问题,基于Omniverse和NVIDIA Cosmos Transfer世界基础模型,能从少量人类演示中生成大量合成运动数据[16] - NVIDIA用蓝图的首批组件在11小时内生成780,000条合成轨迹,相当于6500小时或9个月的人类演示数据,结合合成数据和真实数据使GR00T N1性能比仅使用真实数据提高40%[17] - NVIDIA发布GR00T N1数据集作为更大的开源物理AI数据集的一部分,该数据集现可在Hugging Face上获取[18] 分组5:产品可用性 - NVIDIA GR00T N1训练数据和任务评估场景可从Hugging Face和GitHub下载,NVIDIA Isaac GR00T蓝图可在build.nvidia.com上进行交互式演示或从GitHub下载[19] - NVIDIA DGX Spark个人AI超级计算机为开发者提供扩展GR00T N1能力的交钥匙系统,Newton物理引擎预计今年晚些时候可用[20]
NVIDIA Announces Isaac GR00T N1 — the World's First Open Humanoid Robot Foundation Model — and Simulation Frameworks to Speed Robot Development
GlobeNewswire News Room· 2025-03-18 19:08
核心产品发布 - 英伟达发布GR00T N1模型,这是全球首个开放的、可完全定制的通用人形机器人推理与技能基础模型 [1] - 该模型是系列产品的首个,旨在加速应对全球超过5000万劳动力短缺的行业转型 [3] - 公司创始人兼首席执行官黄仁勋宣布通用机器人时代已经到来 [4] GR00T N1模型技术架构 - 模型采用受人类认知启发的双系统架构,系统1为快速行动模型,系统2为慢速决策模型 [4] - 系统2通过视觉语言模型理解环境和指令以规划行动,系统1则将计划转化为精确、连续的机器人动作 [5] - 系统1的训练数据包括人类示范数据和英伟达Omniverse平台生成的大量合成数据 [5] - 模型能够泛化处理常见任务(如抓取、移动物体)或多步骤任务,并可应用于物料处理、包装和检测等场景 [6] - 开发者和研究人员可使用真实或合成数据对模型进行后训练,以适应特定机器人或任务 [6] 行业合作与生态系统 - 人形机器人开发商1X Technologies基于GR00T N1的后训练策略,展示了其机器人自主完成家庭整理任务 [7] - 1X Technologies首席执行官表示,通过少量后训练数据即可在NEO Gamma平台上完全部署,实现了机器人从工具到伴侣的突破 [8] - 其他早期接触该模型的领先开发商包括Agility Robotics、Boston Dynamics、Mentee Robotics和NEURA Robotics [8] - 英伟达与Google DeepMind和迪士尼研究院合作开发开源物理引擎Newton,旨在让机器人更精确地处理复杂任务 [9] - Newton基于英伟达Warp框架构建,并兼容Google DeepMind的MuJoCo和英伟达Isaac Lab等仿真框架 [10] - 迪士尼研究院将率先使用Newton推进其机器人角色平台,用于下一代娱乐机器人,如受星球大战启发的BDX机器人 [12] 合成数据生成与性能提升 - 英伟达推出Isaac GR00T Blueprint for synthetic manipulation motion generation,帮助开发者从少量人类示范中生成指数级增长的合成运动数据 [15] - 使用该蓝图的首批组件,公司在11小时内生成了78万条合成轨迹,相当于6500小时(连续9个月)的人类示范数据 [16] - 结合合成数据与真实数据,GR00T N1模型的性能相比仅使用真实数据提升了40% [16] - 公司发布GR00T N1数据集作为更大的开源物理AI数据集的一部分,现已可在Hugging Face平台获取 [17] 产品可用性与开发者支持 - GR00T N1训练数据和任务评估场景现已可在Hugging Face和GitHub平台下载 [20] - Isaac GR00T Blueprint for synthetic manipulation motion generation可作为交互式演示在build.nvidia.com体验,或从GitHub下载 [20] - 同时发布的DGX Spark个人AI超级计算机为开发者提供交钥匙系统,无需大量定制编程即可扩展模型能力 [21] - Newton物理引擎预计将于今年晚些时候发布 [21]