Workflow
Agentic AI
icon
搜索文档
NVIDIA GTC 2025:GPU、Tokens、合作关系
Counterpoint Research· 2025-04-03 02:59
AI经济与Tokens化 - Tokens是用于检索或生成信息的新型"货币",推动AI经济发展,需要大量算力支持[1] - AI推理模型复杂度提升需要更高准确性,组织机构需遵循预训练、后训练和测试时的扩展流程[1] - NVIDIA愿景聚焦构建跨行业"AI工厂",涵盖企业IT、云计算到机器人技术[1] NVIDIA芯片技术进展 - 发布Blackwell超级AI工厂平台GB300 NVL72,AI性能比GB200 NVL72提升1.5倍[6] - 公布芯片路线图,支持从Hopper系列升级到Rubin/Feynman系列,Rubin Ultra采用四掩模版GPU,FP4精度达100 petaFLOPS,搭载1TB HBM4e存储器[6] - 新款Vera CPU拥有88个Arm核心,性能是Grace CPU两倍,功耗仅50W,更新周期两年[6] - 推出Spectrum-X硅光子学产品,可横向扩展至数百万GPU,节省数兆瓦电力[6] 系统与基础设施 - 发布DGX SuperPOD GB300,配备36个Grace CPU和72个Blackwell GPU,AI性能比Hopper系统高70倍[10] - 采用第五代NVLink技术和大规模共享内存系统,可扩展至数千个GB超级芯片[10] - 推出1 petaFLOPS的个人超级计算机系统GB10,针对桌面优化微调与推理[14] 软件生态系统 - Dynamo开源框架提升AI推理效率,可使GPU的Tokens生成能力提升30倍以上[19] - Halos平台整合自动驾驶安全系统,覆盖从芯片到算法全链条[20] - CUDA-X拥有超100万开发者,成为最受欢迎的AI编程工具包[23] - 发布Isaac GR00T N1人形机器人基础模型,采用双系统架构模拟人类决策与反射[25] 行业应用拓展 - Aerial平台构建端到端AI驱动的6G技术栈,与T-Mobile等合作开发原生AI网络[23] - Omniverse-Cosmos平台支持机器人训练与场景微调,与DeepMind合作开发物理引擎[25] - 软件专业技术是NVIDIA核心优势,推动高性能芯片在HPC、自动驾驶等领域的应用[25]
大模型非共识下,什么是 AGI 的主线与主峰?
海外独角兽· 2025-04-02 12:04
文章核心观点 - 2025年第一季度中美AI领域火热,AGI路线图上智能提升是唯一主线,要围绕智能投资和思考,模型公司壁垒在于成为Cloud或OS,未来模型和产品边界将模糊;最大非共识是pre - training空间大,Coding是实现AGI的最好环境,Agentic AI是未来关键,AGI时代组织和文化竞争力仅次于算力 [3] 重新重视Pre - training - pre - training空间大,还会涌现新能力,下一代SOTA模型能显著超过当前模型,只有pre - training能决定模型内在上限,post training和RL不涌现新能力 [5][6] - OpenAI看似不重视pre - training可能是战略选择和组织问题,战略上O系列刷分快、ChatGPT成长快占用精力,组织上pre - training核心团队动荡 [7] - RL能产生合成数据加入pre - training环节,可解决数据瓶颈问题,但training和RL inference融合难,涉及训练框架的Infra问题 [9] - 期待pre - training涌现新能力,如提升模型tool use能力,Manus是Anthropic tool use能力的“ChatGPT时刻” [9][10] - 对两年内实现AGI有信心,Coding是实现AGI最好的环境,是模型的“手”,现实世界多数任务可用Coding表达,Agent可通过操作电脑和手机任务接近AGI [11][12] - Anthropic在Coding上有领先优势,Cursor是热门编程IDE工具,多数开发者选Sonnet,Coding是$1T级机会,模型公司在AI for Science领域突破可达到$1T或$10T [14][15][16] - Coding应作为技术引擎,产品表达形式待定义,期待Cursor在交互表达上有新突破 [17] ChatGPT只是攀登AGI的第一站 - OpenAI和Anthropic在实现AGI路线上发生分化,OpenAI核心bet是O系列和ChatGPT,重视C端市场和自下而上组织文化;Anthropic专注pre - training、Coding和Agentic,重视B端市场和自上而下组织文化 [18] - 路线分化原因可能是Anthropic团队出身pre - training有信心,OpenAI O系列亮眼获更多资源,且pre - training团队变动大 [19] - O系列刷benchmark快,但不确定能否打开智能天花板,其提升的Coding多为竞赛型,Anthropic做实战型Coding更多 [20] - 硅谷对不同路线分歧大,本质是智能和流量哪个重要,更应相信AGI原教旨主义,智能提升是首要目标 [21][22] - 谁能做出显著领先的base model谁可能是赢家,长期来看Anthropic可能比OpenAI更有价值,OpenAI对pre - training重视不够 [23][24] - 国内公司有必要训练自己的闭源模型,智能处于早期阶段,认知差异可能源于想象力局限 [26] - AGI探索主线是智能提升,ChatGPT是第一站,后续还有Coding、Agent、AI for Science等,AI for Science是珠穆朗玛峰,多模态、Online Learning等大概率在主线上 [30][31] - 智能涌现带来Magic moment和流量迁移,当前AGI模型公司和产品无绝对壁垒,应围绕智能主线推动智能提升,应用承接智能红利 [32][33] - DeepSeek放弃Chat Bot流量是因组织文化和智能本质考量,AI Robotics排在AI for Science后面是因数据采集低效、算法架构未达成一致,AI for Science有自动化实验室和垂直领域基础模型等趋势 [33][34][35] Agent & Online Learning - AGI应用爆发少是因Agent产品供给受限,依赖模型能力,模型和云厂商未做好Infra准备,Agent有文本、Coding、通用日常任务等类型 [48] - Agent落地关键能力是Long Context reasoning、Tool use、Instruction following,对应不同Infra能力,Context很重要,存在支付宝级机会 [49][51] - Long Context对Agent完成多步骤任务很重要,但目前未找到有效突破方式,存在数据、成本、架构等难点,long - term memory可能取代Long Context [51][52][53] - 两年内实现AGI确定性高,路径是现有路径,AGI定义是在电脑或数字环境下满足3个90% [54] - 新的范式级路线可能是Online Learning,让模型自主在线探索学习,但存在无清晰reward和目标定义等挑战,可能通过模型微调等实现 [54][55] - 可通过坐标轴评价路线差异,重视数据,未来pre - training叙事和Agentic对算力刺激大,看好算力需求 [58] - 英伟达想成为云厂商,贾扬清的公司被卖符合其战略 [58] 大模型的壁垒到底在哪? - 应做研究驱动的应用,AI市场有泡沫,Agent泡沫刚开始,AI产品定价偏低 [60][61] - 通用Agent能否出现取决于pre - training和RL及关键能力,Reward Model泛化性微弱 [62][64] - 模型公司壁垒可能是成为Cloud或OS,OpenAI商业模式可能较好,Anthropic专注模型pre - training [65] - 投资人应投研究推动的应用,应用公司构建壁垒需考虑用户数据使用和独立环境构建,长期做大需具备调整模型和做Research的能力 [66] - 用户数据对提升模型能力作用微弱,模型和产品边界将模糊,应用公司和模型公司会相互渗透 [67][68] - Agent可能影响SaaS公司价值,模型训练是人类面向未来的大基建投入,价值链利润将向后迁移 [69][70][71] - AI市场可能出现黑天鹅,如全新架构、新的Agent产品形态等 [72] 全球AI公司的竞争格局 - OpenAI核心bet是O系列和ChatGPT,Anthropic专注pre - training、Coding和Agent,OpenAI领先优势加强,流量集中度提升,与Anthropic拿走市场revenue的80% [73][74] - Anthropic和xAI背后有Amazon和Musk支持,DeepSeek和xAI Grok跟随OpenAI路线,Google多模态强但其他bet不清晰 [75] - GPT - 4.5可能较强,GPT - 5可能是hybird model,预期今年夏天推出,有GPT - 3.5到GPT - 4量级的提升 [76][79][80] - OpenAI支持Anthropic的MCP协议,两家有竞争但路径分化,OpenAI与微软可能因利益冲突产生裂痕,分家对微软有影响 [81][82][83] - OpenAI整体较安全,但存在base model不够领先的风险,xAI Grok写作能力突出,与Twitter合并为了流量 [84][85][86] - AGI是普通本科毕业生操作电脑水平,ASI是爱因斯坦水平,实现ASI需突破,Mira的新公司团队强,可能做打败ChatGPT的产品 [87][88][89] - Manus和Perplexity执行力强,Manus更吃模型能力,ChatGPT的Deep Research后续会集成更多产品,有两个发展方向 [90][91][92] - Devin解决的问题易被模型公司覆盖,Cursor可能是阶段性产品,期待DeepSeek出现范式级创新 [93] - ilya和Noam对AGI推动贡献最大,其次是Dario和Alec等,Sam对业界贡献大但部分行为可能是烟雾弹 [94][95] 如何构建AGI portfolio - 构建AGI portfolio会投25%给Anthropic,25%给Bytedance,10%给OpenAI,10%给Mira的公司,5%给ilya的公司,5%给Cursor,5%给Manus,15%待定,若DeepSeek融资也会投25% [96] - 字节被低估,营收和利润好,可内生投入AGI,Anthropic团队、Roadmap和战略重点更受看好,Mira公司成功概率高 [97][99] - 未来3 - 5年投资最大的bet是AGI带来科学的文艺复兴,会出现多家市值超$10T的公司和下一个Google、Windows等 [101] 组织文化竞争仅次于算力 - 组织和文化竞争力是仅次于算力的核心竞争力,做AGI要有赌性,人才密度比数量重要 [103] - 判断AGI - native组织要看是否AGI first、Research first等,团队成员要年轻聪明、有想象力和执行力 [103][104] - 大概率OpenAI和Anthropic最早实现AGI,中国字节和DeepSeek等也可能实现,开源可突破地缘封锁 [105] - 中美差距快速缩小,中国人才强,字节Infra能力强,有望在AGI领域有突破 [105][106] - 硅谷多0 - 1创新,中国多1 - 100创新,未来中国创新模式可能变化,需资本充裕和冒险精神 [109] - 应把产品和技术做到极致,跨越地缘问题,激进全球化,期待更多中国跨国公司出现 [110][112]
AI产业化元年,法务「先吃螃蟹」?
36氪· 2025-04-02 00:11
行业趋势 - 2025年被视为AI产业化元年,AI平权化时代来临,推动各行各业智能化转型至临界点[1] - 法律科技行业头部企业法大大基于自研法律大模型发布法务AI智能体产品iTerms Pro,强调AI需穿透专业场景实现人机协同[1][8] - 国内超50%企业已完成合同数字化管理,但多数仍停留在流程线上化阶段,非标合同依赖人工审查[6][7] 产品与技术 - iTerms Pro通过组合式AI和多模态适配实现智能合同审查、履约监控、法律研究等场景,支持多个Agent协同规划[8][10] - 产品采用CoT(思维链)和CoA(行动链)技术生成数字员工,提升人机协同效率[10] - 法律垂直大模型依赖高质量专有语料及专家经验算法转化,开源大模型在专业领域无法替代垂直模型[16][18] 商业化落地 - 企业客户主动参与共建,提供业务know-how数据训练垂类模型以提升准确性[10] - 合同审查场景中,AI可节省50%工作量(人工平均20分钟/份)[25] - 产品定位为开箱即用的上层应用,通过API接口与OA、ERP系统集成,强调开放性[29] 战略价值重构 - AI释放法务生产力,使其从低效检索转向策略优化,尤其在全球化出海场景中凸显法务部门风控策略价值[28] - 技术落地需聚焦人本思维,通过智能体自主规划(如MCP协议逻辑)打通业务流程与单点AI能力[29][30] - 法律AI应用壁垒包括多法域合规动态适配能力、RAG及Agentic AI等实用形态深化[19]
Can Nvidia Stock Return to Its Previous Highs?
The Motley Fool· 2025-04-01 11:45
It's been a tough start to 2025 for Nvidia (NVDA -0.71%), with its stock price down nearly 30% from its record peak of $153.13, reached on January 7. The company continues to capitalize on strong demand for its high-performance artificial intelligence (AI) chips, yet it hasn't escaped the broader market sell-off amid concerns about the strength of the U.S. economy and impacts of the trade tariffs being implemented by the Trump administration. Still, longtime shareholders have little to complain about, as Nv ...
3 Must-See Updates From Nvidia's AI Event
The Motley Fool· 2025-03-26 12:53
文章核心观点 英伟达CEO分享AI发展方向及英伟达未来布局 投资者需关注三个重要更新 并对是否购买英伟达股票给出建议 [1] 分组1:英伟达产品进展 - 英伟达基于最新的Blackwell架构推出的GPU需求旺盛 2025财年第四季度营收同比增长78% 首季度已获得数十亿美元的销售订单 [2][3] - 英伟达正在开发下一代强大芯片Rubin架构 其性能将比Blackwell强14倍 预计明年晚些时候推出 [4] 分组2:Agentic AI对英伟达的影响 - Agentic AI是人工智能领域的下一波浪潮 这类系统需要比当前AI工具多100倍的算力 [5][6] - 尽管有同行推出类似产品 但英伟达在前沿GPU和AI加速器的生产和销售方面占据主导地位 并不断改进芯片以保持领先 [7] 分组3:英伟达在机器人领域的布局 - 英伟达凭借在游戏领域的经验 可将其应用于“物理AI” 即能“思考”和行动的机器人 公司宣布了两项新合作 分别与通用汽车和迪士尼、Alphabet合作 [8] 分组4:英伟达股票分析 - 英伟达股价今年下跌12% 较最高点下跌21% 尽管公司财务表现出色 但受DeepSeek推出影响 市场仍持谨慎态度 [9] - 英伟达CEO认为DeepSeek对AI行业整体是利好 更便宜的AI模型将进一步推动英伟达产品的需求 [10] - 已持有英伟达股票的投资者可适当减持以平衡投资组合 未持有的投资者可考虑以当前21倍的远期市盈率买入 [11][12]
MCP:Agentic AI 中间层最优解,AI 应用的标准化革命
海外独角兽· 2025-03-24 11:49
文章核心观点 - MCP是对其他所有LLM中间层的集大成者,已显著垄断Agentic AI中间层且生态已出现,可能带来“Agentic AI领域的Stripe”,能让Context Layer效果最大化,是Agentic AI的安卓,其生态下创业公司有三个主要机会 [2][4][7][23][25][32][33] 各部分总结 Insight 01 - MCP是开放协议,允许系统向AI模型提供上下文信息,可在不同集成场景通用化,定义了AI模型调用外部工具、获取数据及与服务交互的方式 [4] - 发布一个季度内,MCP使用增长速度是所有开源框架中最快的,2025开年以来显著垄断AI Apps & Agents和Tools & Data Sources间的中间层 [5] - MCP在AI开发者核心圈口碑和讨论度高 [6] Insight 02 - MCP在开发者群体渗透率增长极快,围绕其已出现“生态”,包括MCP Clients、MCP Servers、专门的Marketplace、Infra等产品 [7] - MCP核心概念有客户端MCP Client和服务器MCP Server,前者可让产品无缝连到MCP Server获Context,后者可让LLM理解Context Layer,是轻量级Context连接软件 [8] - MCP Client指LLM - native产品或Agent,可通过MCP协议访问数据,一个Client可和多个MCP Server连接,目前多数高质量Client以编程为中心,非技术用户可用Claude Desktop作为切入点 [10][11][12] - MCP Server可看作开放版的GPTs,头部数据库、Coding公司和创业公司基本都有自己的Server,其使用场景多元,开发模式由社区推动,企业也开始开发官方版本 [13][15] - MCP在GitHub的154个MCP Servers列表里,使用场景最多的是搜索和数据检索,还包括数据库、设计、支付等多个领域 [16] - 去年12月Anthropic举办MCP Hackathon,结果显示MCP使用场景多元,开发者希望通过其实现tool use或执行多步骤任务,获奖成果有Santa Claude、Clauduct Manager等 [18][20] Insight 03 - MCP是转接口,能打通不同数据类型和AI应用,Anthropic将其类比为USB - C端口,隐含打造标准化接口的目标,该接口定义在MCP Server和LLM之间 [21] - MCP将数据转接工作量在各方重新分配,虽不能和Stripe直接类比,但“Agentic AI的Stripe”可能是创业公司机会,是Agent领域关键infra [22][23] Insight 04 - 让AI Agent发挥作用需正确丰富的Context、完整工具使用环境和持续迭代的记忆,MCP以Agent为中心的执行模式超越LSP,能帮助Context Layer实现最好效果 [24][25] - Tool use核心是RL环境,memory目前无标准化趋势 [28] Insight 05 - MCP出现前已有很多中间层产品,MCP集各家之长,更轻量、开放,对这些产品冲击不小 [29] - OpenAI Function Call给MCP启发,但MCP更具生态价值;OpenAI GPTs思路被MCP沿用,但太封闭;OpenAI Agent SDK和MCP不同;LangChain和LlamaIndex受冲击大;Composio在MCP环境下生态位不错 [29][30] Insight 06 - 开发者让不能控制或开发的Agent获取数据源和工具时,MCP是最佳选择,其开源灵活,但使用效果精细和效率可能不如Agent SDK,类似安卓,目前不确定OpenAI Agent SDK等是否类似苹果 [32] Insight 07 - MCP生态下创业公司有三个主要机会,分别是Agent OS、MCP Infra、MCP Marketplace [33][35] - Agent OS可将大量MCP Server层统一抽象,使Context和tool use更自然分发和交互 [35] - MCP Infra核心目标是让MCP更可靠、可扩展,需将其设计成无状态协议,还有支持托管与多租户等多种做法 [36][37] - MCP Marketplace可帮助Agent选到更好产品,如Cline发布的MCP Marketplace,用户可浏览、搜索、一键安装MCP Server [39][40][41]
Sense Club|AWS 北京站活动,从对话到执行,共探 Agentic 新范式
深思SenseAI· 2025-03-23 03:00
活动概述 - 活动聚焦AI领域从对话到执行的范式转变 强调Agentic AI将重塑产业并带来商业模式创新 [1][6] - 目标受众为AI开发者与创业者 旨在提供技术洞察 开发经验 商业化路径及资源对接支持 [1][6] - 活动由亚马逊云科技主办 合作机构包括CAMEL-AI ANP开源技术社区 深思圈等 [2][4][6] 技术议题 - 主题演讲涵盖Agentic AI应用开发范式 Multi-Agent框架拆解 推理模型实践及Amazon Bedrock工具演示 [4] - 技术分享包括构建自主化Agent系统 MCP与ANP的智能体通信协作机制等前沿方向 [4] - 海外AI Agent生态观察环节探讨全球化市场机遇 [4] 资源支持 - 亚马逊云科技推出Ignite Agent云创计划 提供技术资源 基础设施 专家指导及市场对接支持 [1] - 活动设置开发者交流环节促进实战经验分享与行业连接 [4][6] 活动详情 - 时间定于2025年3月30日 地点为北京颐堤港写字楼18层 [2][6] - 议程包含6场主题演讲及茶歇交流 总时长4小时 [4]
【电子】英伟达GTC2025发布新一代GPU,推动全球AI基础设施建设——光大证券科技行业跟踪报告之五(刘凯/王之含)
光大证券研究· 2025-03-22 14:46
英伟达GTC大会核心观点 - 提出Agentic AI作为AI技术发展的中间态 按照"Generative AI Agentic AI Physical AI"三阶段进化路线推进 [3] - 全球数据中心建设投资额预计2028年达到1万亿美元 Scaling Law发展需要更大规模算力资源投入 [3] 芯片产品规划 - Blackwell Ultra芯片2025年下半年供货 基于Blackwell架构 AI推理性能显著提升 [4] - GB300 NVL72机架级解决方案AI性能比GB200 NVL72提升1.5倍 已全面投产 [4] - Vera Rubin系列芯片为下一代AI平台 预计2026年下半年推出Vera Rubin 2027年下半年推出Vera Rubin Ultra [4] 光通信技术突破 - 推出115.2T的800G Quantum-x CPO交换机 采用微环调制器1.6T硅光CPO芯片 预计2025下半年上市 [5] - 基于CPO共封装光学平台打造Spectrum-x系列光交换机 包括128端口800G和512端口800G型号 [5] 软件与生态系统 - 推出AI推理服务软件Dynamo 支持Blackwell芯片实现推理性能飞跃 [6] - 发布NIM服务支持企业构建AI Agent 推出AI-Q(NVIDIA IQ Blueprint)框架 [6] - 推出DGX Spark个人AI超级计算机和GR00T N1人形机器人模型框架 [6] 大会规模与内容 - 包含1000多场会议 400多项展示和技术实战培训活动 [2] - 聚焦代理式AI 机器人 加速计算等前沿领域发展 [2]
英伟达(NVDA):事件快评:GTC2025,迈向AgenticAI新时代
国泰君安· 2025-03-19 11:13
报告公司投资评级 - 增持 [1] 报告的核心观点 - 英伟达于2025年3月17 - 21日举办GTC年度大会,聚焦Blackwell Ultra和Vera Rubin芯片发布以及Physical AI与Agentic AI前沿 [7] 根据相关目录分别进行总结 Blackwell Ultra和Rubin芯片发布,迈向Agentic AI - Blackwell Ultra基于Blackwell芯片,2025年下半年量产,搭载288GB HBM3e记忆体,FP4推理性能提升1.5倍,相比Hopper架构能为数据中心创造50倍收入机会,英伟达还推出含72颗Blackwell Ultra GPU和36颗Grace CPU的Blackwell Ultra NVL72机柜,显存20TB,总带宽576TB/s [7][10] - 下一代超级芯片Vera Rubin 2026年下半年出货接替Blackwell Ultra,Vera CPU内存是Grace的4.2倍、带宽是2.4倍,有88个CPU内核,性能是Grace的2倍;Rubin GPU配有288GB HBM4,由2个GPU组成;Vera Rubin平台搭载新一代NVLink 6交换机,NVLink频宽260TB/s,CX9网卡带宽28.8TB/s,性能达前一代3.3倍;英伟达还官宣Vera Rubin Ultra 2027年下半年上市,性能可达Hopper的900倍 [7][12] - 英伟达官宣下下一代AI芯片架构Feynman,展示长期技术战略:Blackwell(2024年)-> Blackwell Ultra(2025年)-> Vera Rubin(2026年)-> Rubin Ultra(2027年)-> Feynman(2028年) [7][13] - 英伟达推出全球首款开源人形机器人功能模型Isaac GR00T N1,与谷歌DeepMind、迪士尼合作开发Newton机器人平台,展示机器人Blue,Newton针对机器人学习优化,与谷歌DeepMind的MuJoCo和英伟达Isaac Lab等仿真框架兼容 [17] - 英伟达推出三款交换机产品Quantum 3450 - LD、Spectrum SN6810、Spectrum SN6800,归类到“NVIDIA Photonics”平台,整合光模块的Photonics交换机相比传统交换机性能提升3.5倍,部署效率提升1.3倍,扩展弹性超10倍 [7][18] - Nvidia Dynamo是专为推理、训练和跨数据中心加速构建的开源软件,号称未来“AI工厂操作系统”,能最大化GPU利用率,优化分布式推理,提高吞吐量和响应速度,在现有Hopper架构上让标准Llama模型性能翻倍,对DeepSeek等专门推理模型,能将每个GPU生成的token数量提升30倍以上 [19]
老黄发布新核弹B300,英伟达:B200已破DeepSeek-R1推理世界纪录
量子位· 2025-03-18 22:20
文章核心观点 英伟达在GTC大会上发布多款新硬件、软件,涉足以太网领域,还在自动驾驶和具身智能方面取得新进展,同时大会设有“量子日”活动引发关注 [1][18][29][43][56] 新硬件发布 AI芯片 - GB300推理性能是GB200的1.5倍,将于今年下半年出货 [1][2] - 预览下一代AI超级芯片Vera Rubin,2026年下半年发货,整体性能是GB300的3.3倍 [3][6] - 2027年下半年推出的Rubin Ultra性能是GB300的14倍 [6] - 之后的下一代GPU将命名为Feynman [11] 个人AI超级计算机 - DGX Spark售价3000美元,采用GB10芯片,能提供每秒1000万亿次AI运算,官网已开启预定 [20][21][23] - DGX Station采用GB300芯片,将于今年晚些时候从多家厂商推出 [24][26] 以太网网络平台 - 推出全球首个面向AI的以太网网络平台Spectrum - X,可将AI网络性能提升1.6倍 [29][31] - 推出基于硅光学的Spectrum - X Photonics和Quantum - X Photonics网络交换平台,端口数据传输速度提至1.6Tb/s,总传输速度达400Tb/s [32][33] 软件开源 分布式推理服务库 - 发布NVIDIA Dyamo,可让DeepSeek - R1吞吐量提升30倍,已完全开源 [35][37][38] AI推理模型 - 开源新的AI推理模型Llama Nemotron,49B参数量性能远超其他对比模型 [39][41] 自动驾驶与具身智能进展 自动驾驶 - 与通用汽车合作,通用将在自动驾驶上使用英伟达AI技术 [44] - 发布端到端自动驾驶汽车全栈综合安全系统NVIDIA Halos,在三个层面提供支持 [45][47] 具身智能 - 与Google DeepMind和Disney Research合作开发下一代开源仿真物理模型Newton [50] - 推出全球首个开源的、完全可定制的人形机器人基础模型Isaac GR00T N1 [51] 大会其他亮点 - 今年GTC大会首次设立“量子日”活动,老黄将与多家量子计算企业高管讨论行业发展 [56]