并行计算
搜索文档
英伟达(NVDA.US)推出CUDA 13.1 与 CUDA Tile 黄仁勋称二十年来最大升级
智通财经网· 2025-12-06 04:18
公司技术发布 - 英伟达推出了CUDA 13.1和CUDA Tile,公司CEO黄仁勋表示这是该平台自约20年前推出以来所取得的最大进步 [1] - 新的创新引入了一套针对基于模块的并行编程的虚拟指令集,重点在于能够以更高的层次编写算法,并将专用硬件的细节抽象出来 [1] - 新的基于图元的编程选项使开发人员能够精细地控制其代码的执行方式,尤其是在涉及多种GPU架构的情况下 [1] 技术细节与优势 - 基于图块的编程允许开发者通过指定数据块来编写算法,然后定义对这些图块执行的计算操作,无需在逐元素级别设置算法的执行方式 [1] - CUDA Tile在Python中已有可用版本,公司计划在未来发布与C++兼容的版本 [1] - 公司CUDA架构师Stephen Jones表示,CUDA Tile在Python中的实现与人工智能开发框架的结合非常完美,并有意将其作为开源项目发布 [1]
算力的突围:用“人海战术”对抗英伟达!
经济观察报· 2025-11-14 15:08
超节点概念与市场动态 - 英伟达是超节点概念最早的提出者,国内厂商在进入该赛道时常以对标或超越英伟达为主题[1][11] - 2025年下半年起,AI算力市场涌现超节点发布热潮,包括华为、中兴通讯、超聚变、新华三、浪潮信息、百度、阿里巴巴、中科曙光等公司均推出了相关产品[2] - 华为在2025年中国国际大数据产业博览会上宣称其384超节点服务器的集群算力是英伟达同类设备的1.67倍[3] 超节点的定义与技术背景 - 行业内对超节点有两种层级划分:单机柜内部高速互联和跨机柜组成的集群级互联[5] - 超节点的出现是为了解决AI大模型训练中的"通信墙"问题,即在超高参数级别训练中,计算单元约40%的时间处于"空等"通信状态[6] - 构建大规模GPU集群主要有Scale-Out和Scale-Up两种方式,超节点通过单机柜内集成大量芯片来提升性能[7] - 超节点产品名称中的数字通常表示单机柜或单系统内集成的AI训练芯片数量,例如华为昇腾384集成384颗芯片,中科曙光scaleX640可部署640张计算卡[7] 国内厂商的技术路径与竞争策略 - 国内厂商选择超节点路线是由于单芯片算力存在短板,需要通过系统级优势来弥补单点差距[9] - 厂商在单机柜集成度上展开激烈竞争,中科曙光scaleX640宣称是"全球首个单机柜级640卡"产品,单机柜算力密度提升20倍[12][13] - 超节点内部互联存在不同技术路径,英伟达采用高速铜缆,华为选择"去铜全光",而行业主流思路是柜体内用铜互联、柜间用光互联[13] - 国内厂商的核心策略是在1米左右的铜互联有效距离内尽可能塞进更多计算卡,以降低系统总成本和提升通信效率[14] 超节点面临的工程挑战 - 高集成度带来显著功耗和散热挑战,例如英伟达GB200NVL72单柜72卡功耗达120千瓦,迫使液冷技术成为必需品[15] - 互连工程复杂度随集成度提升而急剧增加,GB200NVL72机柜需要铺设5000多条总长近3200米的独立铜缆[15][16] - 在互联协议上出现分化,华为自研灵衢协议并计划开放生态,阿里和新华三等则选择支持UALink等国际开放标准[16] 市场需求与发展前景 - 未来两到三年AI服务器需求主导角色将是大型互联网企业和国家主导的主权云服务[20] - AI算力建设存在"一厢情愿"风险,需要避免在不需要算力的地方强行推进产业发展[21] - AIGC是当前AI算力主要落地场景,但机器人、高阶自动驾驶等与先进制造深度绑定的领域被看好具备长期潜力[21][22] - 金融、医疗等行业目前仍处于从单点验证走向规模化复制的早期阶段[22]
国产超节点扎堆发布背后
经济观察网· 2025-11-14 14:10
超节点市场动态 - 2025年下半年起,国内多家科技公司密集发布超节点产品,包括华为、中兴通讯、超聚变、紫光股份旗下新华三、浪潮信息、百度、阿里巴巴及中科曙光等[2] - 华为在2025年中国国际大数据产业博览会上宣称其384超节点服务器的集群算力达到英伟达同类设备的1.67倍[2] - 中科曙光于2025年11月6日发布scaleX640超节点,宣称是"全球首个单机柜级640卡"集成产品[11] 超节点技术定义与分类 - 超节点在行业内有至少两种层级划分:单机柜内部实现高速互联(SuperNode)和由跨机柜组成的集群级互联(SuperPod)[3] - 超节点是将几十张乃至上百张AI计算卡集成进一台大机柜,通过内部高速互连使其像一块超级芯片一样工作[6] - 产品名称中的数字(如384、640)通常代表该超节点单机柜或单系统内集成的AI训练芯片数量,是衡量其规模与算力密度的核心指标[7] 超节点发展的驱动因素 - AI大模型训练面临"通信墙"瓶颈,在超高参数级别模型训练中,计算单元约40%的时间处于"空等"通信状态[4] - AI应用需求从"一个模型回答一个问题"转向需要多个模型协同工作的智能体(AI Agent),导致Token生成规模远超传统方式,对通信时延要求更高[8] - 国内单芯片算力存在短板,厂商通过构建多卡超节点模式在系统级上寻求优势,以弥补单卡性能差距[9] 超节点技术路径与工程挑战 - 行业主要采用两种构建大规模GPU集群的方式:Scale-Up(纵向扩展)和Scale-Out(横向扩展),超节点设计同时包含这两种方式[5][7] - Scale-Out网络通信时延约10微秒,而Scale-Up网络(如英伟达NVLink)目标时延为百纳秒级别,性能差距显著[8] - 高集成度带来工程挑战:英伟达GB200NVL72单柜72卡功耗达120千瓦,需采用液冷散热;其机柜内部需要铺设5000多条、总长近3200米的独立铜缆[14] - 互联协议出现分化:华为自研灵衢互联协议并开放技术规范;阿里、新华三等选择支持UALink等国际开放标准[15] 超节点市场前景与挑战 - 未来两到三年AI服务器需求主力为大型互联网企业和国家主导的主权云服务,后者旨在为本地化中小企业提供AI算力租赁服务[19] - 软件生态是国产算力厂商面临的共同挑战,用户更关注应用能否有效落地而非硬件参数[18] - AI算力最大应用场景目前是AIGC,但在智能制造等"AI+"领域,算力预期与实际需求存在落差;机器人、高阶自动驾驶等先进制造领域被看好具备长期潜力[20][21] - 金融、医疗等行业AI应用仍处于从单点验证走向规模化复制的早期阶段[22]
一文读懂英伟达GTC大会:从GPU到AI工厂,黄仁勋如何重塑美国科技霸权
36氪· 2025-10-28 23:58
核心观点 - 英伟达在GTC华盛顿特区技术峰会上勾勒了帮助美国在AI基础设施和创新领域保持领导地位的宏伟蓝图,核心战略是通过“极致协同设计”推动计算架构、通信技术、量子计算和本土制造等多领域的范式转移 [1] 计算架构范式转移 - 传统CPU性能增长因登纳德缩放定律终结而陷入停滞,公司以并行计算、GPU和加速计算架构作为解决方案 [4] - 公司构建了CUDA-X全栈加速库软件生态系统,覆盖深度学习、数据科学、决策优化、计算光刻及量子计算等关键领域,被视为公司最珍贵的宝藏和技术核心 [4] AI原生6G技术栈ARC-Pro - 公司推出以美国技术为核心的AI原生6G无线技术栈NVIDIA ARC,基于Aerial平台构建,融合Grace CPU、Blackwell GPU及先进网络组件 [5][7] - 公司与诺基亚达成深度战略合作,诺基亚将在未来基站系统中集成ARC解决方案,公司以每股6.01欧元认购1.664亿股诺基亚新股,投资总额达10亿美元 [7] 量子计算互联技术NVQLink - 公司推出量子-GPU互联技术NVQLink,使量子处理单元能实时调用CUDA-Q框架,将通信延迟降至约4微秒 [10] - 公司的量子计算生态系统合作伙伴包括17家领先企业和多个美国能源部实验室,几乎所有的美国能源部下属实验室都参与合作 [10] 加速美国科研进程 - 公司与美国能源部达成战略合作,将共同建设七台新一代超级计算机 [10] - 将在阿贡国家实验室打造包含Solstice系统(部署10万颗Blackwell GPU)和Equinox系统(配备1万颗Blackwell GPU,提供2,200 EFLOPS AI算力)的超级计算网络 [12] 本土制造战略 - Blackwell GPU已在美国亚利桑那州实现规模化生产,基于该芯片的整机系统也将在美国完成组装,标志着制造环节从依赖台积电转向美国本土供应链 [13] - 过去四个季度公司已出货600万颗Blackwell GPU,预计Blackwell与下一代Rubin芯片的总销售额将达到5000亿美元规模 [13] AI工厂革命 - 公司提出AI从“工具”转变为“生产力主体”,催生全新的计算范式、职业形态与产业格局 [14] - “AI工厂”是专门为海量token生成、传输与服务构建的全新综合计算平台,通过重新定义计算机形态(扩展至整个机柜)和创新AI以太网技术Spectrum-X实现系统间无损横向扩展 [14] Omniverse DSX蓝图 - 公司发布Omniverse DSX,是一套完整覆盖100兆瓦至数千兆瓦级AI工厂设计与运营的综合解决方案 [15] - 提供DSX Boost(内部能效优化,可降低约30%能耗或提升30%GPU密度)和DSX Flex(外部能源整合,可激活美国电网中约100吉瓦闲置容量)两个配置框架 [18] - 该架构支持当前Blackwell平台并兼容下一代Vera Rubin等未来产品 [19] 开放生态与产业融合 - 公司本年度已向开发者社区贡献了数百个高质量开放模型与数据集,强调开源模型与开放协作是创新基石 [20][21] - 已构建覆盖关键领域的开放模型体系,包括Nemotron(智能体推理)、Cosmos(合成数据与物理AI)、Isaac GR00T(机器人技能学习)和Clara(生物医学研究) [21] - 宣布与CrowdStrike共建新一代网络安全体系,并与Palantir达成深度技术整合,将加速计算架构与开源模型融入其数据平台 [22] 物理智能应用 - “物理智能”通过机器人与智能系统重塑制造、物流及基础设施,推动美国再工业化进程 [24] - 合作伙伴案例包括:富士康运用Omniverse仿真休斯敦新工厂、卡特彼勒集成数字孪生、Figure AI人形机器人、强生优化生产研发、迪士尼训练交互式机器人 [24] 自动驾驶新纪元 - 公司与Uber共同构建自动驾驶出行平台,计划自2027年起规模化部署约10万辆自动驾驶车辆 [26] - 项目将依托新一代DRIVE AGX Hyperion 10平台(配备两颗Thor处理器,每颗约2000 FP4 TFLOPS,含14个摄像头等传感器套件) [26] - 该平台还获得Lucid Motors、梅赛德斯-奔驰以及Stellantis集团等汽车制造巨头的采用 [26]
算力:从英伟达的视角看算力互连板块成长性 - Scale Up 网络的“Scaling Law”存在吗?
2025-08-21 15:05
行业与公司 * 行业聚焦于AI算力网络互连板块 特别是Scale Up网络技术及其带来的产业链机会[1] * 核心讨论围绕英伟达及其产品策略展开 同时涉及亚马逊、谷歌、Meta等公司的ASIC方案[5] * 产业链受益环节包括光纤、AEC(有源铜缆)、光模块(1.6T)、MPO、FU以及交换机厂商(如锐捷网络、博通、天弘、Arista等)[28][30] 核心观点与论据 * **Scale Up网络的定义与必要性**:Scale Up网络旨在实现跨机柜的大规模连接 将机柜当作积木连接 其核心驱动力是解决硬件内存墙问题并满足AI并行计算(尤其是专家并行和张量并行)的高通信需求[1][5][7][10] * **英伟达的推广策略**:通过两条路径推广 一是不断提高Nvlink带宽(每代产品单卡带宽基本翻倍) 二是扩大Up规模(如从H100升级到GH200时将MV8提升到MV256) 后因成本高和推理需求不足而推出更具性价比的NVO32方案[6] * **Scale Up相比Out网络的优势**:在超节点内能提供更高带宽 在英伟达系统中Up带宽是Out的九倍 未来随着规模扩大可能取代Out 实现AI网络统一连接[7][8] * **性能优势验证**:GB200使用FP4精度 在TPS(Token Per Second)为10时 其单卡性能比B200差三倍(两倍来自FP4 0.5倍来自Scale Up和Grace CPU);当TPS为20时 差距变为七倍(3.5倍来自Scale Up和Grace CPU) 表明网络通信压力增大时Scale Up优势更明显[4][14][15] * **更大规模网络的需求**:为满足单用户TPS增长和模型能力拓展(如多模态模型) 需要组建更大规模的Scale Up网络(如NVL576) 其规模扩大速度需快于性能指标增长速度[21][22] * **组网方式与技术选择**:更大规模网络需进行机柜间第二层连接 建议采用光纤和AEC(有源铜缆)而非PCB(柜内)和DAC(有效距离仅1米)[23][24] * **带来的增量需求**:在第二层网络中 一个GPU需要9个等效1.6T连接(传统IB架构仅需2-3个) 且每4个GPU需额外增加一台Nvlink交换机(传统IB架构每30-48颗GPU才需一台) 导致端口和交换机需求显著增长[4][25][26] 其他重要内容 * **内存墙概念**:分为模型内存墙和算力内存墙 指模型参数量和算力增速快于配套内存(如HBM)增速 需通过高速通信实现显存池化[1][10] * **并行计算范式**:包括数据并行、流水线并行、专家并行和张量并行 后两者对通信频率和数据大小要求更高[2][11][12][13] * **总拥有成本(TCO)分析**:GB200 NVL72方案的总硬件成本约为6.1万美金 比NVL576方案节省2万美金[18][19] * **技术路径排除**:CPO和OCS技术因故障率瓶颈和镇静频率问题 目前尚未能应用于Scale Up场景[27] * **市场认知差异**:市场普遍认为Scale Up仅限于柜内 但实际需要跨机柜连接以提升单卡性能有效利用率[29][30]
全球市值第一 英伟达如何踏入AI计算芯片领域
天天基金网· 2025-08-12 11:24
英伟达市值与市场地位 - 英伟达在6月初超过微软成为全球市值最高的上市公司,7月初市值突破4万亿美元,成为首家达到这一里程碑的企业,股价触及164.32美元的历史最高点,目前股价已超过180美元 [2] - 市值飙升主要源于投资者对人工智能变革潜力的信心,以及合作伙伴OpenAI发布GPT-5的推动 [2] - 公司从游戏芯片制造商转型为加密挖矿芯片制造商,最终成为人工智能计算芯片领域的早期赢家 [2] 英伟达的AI转型关键人物与事件 - 布莱恩·卡坦扎罗(现任英伟达应用深度学习研究副总裁)在英特尔实习期间发现传统计算机架构的局限性,提出并行计算是人工智能的解决方案 [5] - 卡坦扎罗2011年加入英伟达,成为首位专职AI研究员,用12个GPU完成原本需要2000个CPU的“猫脸识别”实验 [5][6] - 他开发的cuDNN(深度学习加速库)最初被软件团队否定,但通过越级向CEO黄仁勋陈述后获得支持 [6][7] 黄仁勋的战略决策与公司转型 - 黄仁勋将cuDNN视为公司20年历史中最重要的项目,提出“OIALO”(Once In A Lifetime Opportunity) [8] - 基于第一性原则,黄仁勋推断神经网络将变革社会,并通过CUDA平台占据硬件市场 [8] - 英伟达在黄仁勋的决策下,仅用一个周末完成从图形芯片公司向AI芯片公司的转型 [8] 技术突破与行业影响 - 英伟达发现矩阵乘法适合并行处理,并在cuDNN开发中优先考虑速度而非精度,以适应大规模神经网络的需求 [9][10] - 2014年GTC大会上,黄仁勋首次公开英伟达与AI的结合,卡坦扎罗展示改良版AlexNet的实时犬种识别能力 [11] - 2016年谷歌AlphaGo的成功推动GPU需求,英伟达获得“麦克卡车项目”订单(4万个GPU,价值1.3亿美元),成为公司史上最大单笔订单 [11] AI与硬件协同发展的未来展望 - 深度学习是软件与硬件的双重革命,并行计算与神经网络的结合被视为未来重塑人类文明的关键 [12] - 英伟达的转型案例凸显了企业资产支出向AI领域转移的趋势 [2][12]
当前处理器架构,还有哪些提升机会?
半导体行业观察· 2025-07-20 04:06
处理器架构效率提升的挑战与机遇 核心观点 - 处理器设计从单纯追求性能转向性能与功耗平衡 性能的小幅提升若导致功耗不成比例增加 设计人员可能放弃改进转而采用更具能效的方案[3] - 当前架构在性能和功耗方面的持续改进变得越来越困难 行业正在通过微架构重新设计、工艺改进、3D-IC等技术寻求突破[3][4] - 架构层面的优化比实现层面更具潜力 但需权衡面积、功耗与性能的关系[6][8] 工艺与封装技术 - 工艺改进仍是降低功耗的首要方法 22纳米比28纳米能耗特性更好 12纳米是高效设计的流行节点[3] - 3D-IC的功耗介于单片芯片和PCB级组件之间 比传统多芯片方案功耗更低、速度更高[4] - 共封装光学器件(CPO)降低功耗的技术经济性正在改善 因高速数字通信需求增强[4] 架构优化技术 - 推测执行(分支预测)和乱序执行可提升性能但增加复杂度 分支预测性能提升可达30% 总开销在20%-30%之间[7][8] - 并行化是提高性能的关键机会 但受限于阿姆达尔定律和编程复杂性 数据中心服务器处理器核心数达约100个[9][10] - "杀戮法则"指出 若新增功能增加的面积大于性能提升 则不应添加该功能[8] 加速器与异构计算 - 定制NPU比通用NPU效率更高 Expedera数据显示定制NPU使处理器效率(TOPS/W)提升3-4倍 利用率提升2倍以上[14][15] - 加速器作为非阻塞卸载可有效处理特定任务 同时让CPU执行其他工作或休眠[12][14] - 异构计算结合处理核心和NPU 针对AI处理的优化可避免低效的CPU和GPU运算[14] 技术局限性 - 异步设计因性能不可预测和触发器复杂度高 未能成为主流设计方法[5] - 数据和时钟门控可抑制杂散功耗 但实现层面的节能机会有限[5][6] - 多核处理器商业失败主因是开发者拒绝显式并行编程 GPU/TPU是少数成功渗透的领域[11] 未来方向 - 大量简单CPU组成的阵列可能是可行之路 但需AI创建并行编译器来改变编程方法[12] - 新处理器架构可能成为最终解决方案 但受限于现有生态系统的转换难度[16]
处理器架构,走向尽头?
半导体芯闻· 2025-07-17 10:32
处理器架构效率提升的挑战与机遇 - 行业从单纯追求性能转向性能与功耗平衡,小幅性能提升若伴随不成比例功耗增加可能被放弃[1] - 乱序执行等传统性能提升技术因增加电路复杂度和功耗,在当前设计中接受度下降[1] - 22纳米工艺比28纳米能耗特性显著改善,12纳米成为高效设计流行节点[1] 工艺与封装技术创新 - 3D-IC在功耗表现上介于单片芯片与PCB方案之间,优于传统多芯片PCB连接方案[2] - 共封装光学器件(CPO)因高速数字通信需求增长而经济可行性提升,技术成熟度改善[2] - 异步设计因时序不可预测性和触发器功耗增加问题,尚未成为主流设计方法[3] 架构层面的功耗优化 - 分支预测器规模与性能呈非线性关系:小型预测器提升15%性能,复杂版本提升30%但面积增加10倍[9] - 编解码器重构减少5%分支数量可带来5-15%性能提升,典型程序中20%指令为分支[9] - 推测执行与乱序执行总开销约20-30%,成功预测可提升30%以上指令执行效率[9] 并行计算的潜力与局限 - 主流处理器通过多核架构(最高约100核)和核心内多功能单元实现有限并行[10][11] - 数据中心服务器多核主要用于多任务并行而非单程序加速,编程复杂度阻碍普及[11][13] - 分形计算等算法可通过像素级并行实现加速,但阿姆达尔定律限制串行代码段[11] 专用加速器的效率突破 - 定制NPU相比通用NPU可实现3-4倍能效(TOPS/W)提升和2倍以上利用率改善[18] - 专用MAC阵列针对特定数据类型优化的NPU,比可配置计算单元方案更高效[17][18] - AI训练/推理加速器通过非阻塞卸载机制,允许CPU执行其他任务或进入休眠[15] 未来架构演进方向 - 简单CPU阵列需配合并行编译技术突破,AI可能推动自动化并行工具发展[14] - 处理器子系统效率接近极限时,需考虑新架构但受限于现有生态系统惯性[19]
OpenAI甩开英伟达,谷歌TPU“横刀夺爱”
36氪· 2025-07-02 23:10
行业动态 - 英伟达超越微软重夺全球市值第一宝座 [1] - OpenAI计划采购谷歌TPU芯片以替代部分英伟达GPU [1][3] - 谷歌TPUv5p因低成本特性获苹果和OpenAI订单 [5][13] 技术对比 - 英伟达B200芯片拥有2080亿晶体管、192GB HBM3E内存、8TB/s带宽,FP8/FP6性能达20PFLOPS,是H100的2.5倍 [3] - 谷歌TPUv5p单价仅数千美元,远低于英伟达DGX B200服务器50万美元售价 [5][8] - TPU专为AI计算优化,采用脉动阵列设计,比通用GPU更高效且成本更低 [8][11] 市场趋势 - 英伟达Blackwell GPU未来12个月产能已被预订一空 [5] - 行业需求从"预训练"转向"推理",TPUv5p因支持混合精度更适配推理场景 [13][15] - DeepSeek开源模型推动AI厂商转向智能体和应用开发,降低训练算力需求 [13][15] 企业策略 - OpenAI通过采购TPU实现算力供应多元化,减少对英伟达依赖 [3][5] - 谷歌TPU商用化突破"自家玩具"定位,获大厂订单 [3][13] - 国内AI厂商或受益于TPU替代GPU的可行性 [15] 产品定价 - OpenAI GPT-3输入/输出定价为10美元/40美元每百万tokens [5] - 谷歌Gemini 2.5 Pro输入/输出定价仅1美元/4美元每百万tokens [6]
量子算力跨越临界点
2025-06-19 09:46
纪要涉及的行业 量子信息技术行业,细分领域包括量子计算、量子通信和量子精密测量 纪要提到的核心观点和论据 量子计算 - **原理与优势**:利用量子比特叠加和纠缠特性实现并行计算,理论上特定算法可指数级加速,解决经典计算机难处理的复杂问题,如优化、模拟等;信息基本单位量子比特可处于 0 和 1 间状态,多个比特系统能表达 2^n 种状态,每增加一个比特表达能力翻倍,带来巨大应用潜力 [1][5] - **技术路线**:常见实现技术有超导、离子阱、中性原子光镊技术、光子偏振状态表示、半导体和拓扑结构;超导门保真度高、相干时间长,被谷歌、IBM 等采用;离子阱门保真度更高但扩展有困难;中性原子光镊技术对环境要求低但部分操作时间长;英特尔希望用半导体技术制备比特;微软押注拓扑结构但进展小 [1][6] - **发展现状**:产业处于早期,超导技术较成熟,各主要技术路线均有真机;应用场景包括金融、材料、生物医药等行业,重要企业联合探索用量子计算解决计算难题;目前主要应用于教育和科研市场,该市场呈上升趋势 [1][16][21] - **关键问题**:环境噪声影响物理量子,实现逻辑量子纠错困难;上游产业链浅,稀释制冷剂国外禁运,需研发替代品;测控系统设备需优化以适应低温环境;需设计芯片及 EDA 软件进行版图设计和模拟;软件算法方面需开发操作系统、编程框架等支持硬件使用 [1][17] - **未来预期**:2025 - 2030 年,专用型量子计算机将进入使用阶段,特定领域应用逐步实现,通用型量子计算机将发挥一定作用,但全面应用可能要到 2030 年后 [23] 量子通信 - **主要方向**:量子密钥分发(QKD)基于非对称加密概念,用光量子形式解决密钥安全分发问题,传递加密密钥,实际信息仍通过经典通道传递;量子隐形传态利用纠缠粒子特性传递量子态;量子直接通信将经典信息编码到光等载体上传递,已有几百公里长距离传输实验成果;还有量子随机数生成器和抗量子密码学 [9][10] - **发展现状**:量子密钥分发和量子随机数发生器已进入实用化阶段,优先用于政务、大银行、军事国防等特殊场景,未来五年应用将增多;抗抵赖密码标准推进迅速,但存在理论与实际不符问题;直接通信研究难度较小,有望取得更多进展;隐形传态仍处实验室阶段 [24][25][26] - **优势**:理论协议层面比经典协议安全性更高,信息不可克隆、复制,传递信息无法被窃取,但现有技术仍依赖经典通信信道,无超光速信息传递 [15] 量子精密测量 - **应用情况**:涉及原子钟、传感器等测量产品,应用落地较快,产品为专门目的设计,在军事和科研领域有应用,通过微观系统变化获取宏观数据 [2][4][27] 其他重要但是可能被忽略的内容 - **量子概念**:“量子”指能量以离散单位发射和吸收的形式,衍生出量子力学,研究微观世界需用量子力学原理 [3] - **量子纠错突破**:谷歌 Sycamore 量子计算机在量子纠错方面取得突破,证明逻辑量子计算机可行性,带动相关股票上涨 [4][54] - **量子比特与算力关系**:量子比特数是影响量子计算机性能的核心因素,数量增加算力指数增加,如 20 个量子比特计算机可用经典计算机模拟,50 个则几乎不可能 [39] - **超导量子计算机价格与成本**:超导技术路线下,不同规模超导量子计算机价格差异明显,20 个和 50 个比特规模价格约相差一倍,百比特规模价格差异更大;成本主要包括吸热制冷剂、芯片、测控系统和低温线缆,吸热制冷剂尤其昂贵 [40][41] - **经典计算与量子计算比较**:两者不能完全替代,经典计算机在四则运算上更快,量子计算机适合解决基于量子力学理论的复杂问题,如新材料研究等 [36] - **量子计算系统代际变化**:代际变化无严格过程,基于功能和技术突破,如第六代商业级量子计算系统量子比特数量增加,对制冷剂需求跳跃式增长 [48] - **国内招标情况**:国内量子计算、通信或测量领域招标标的规模大,多为千万级别,个别达亿元级别,每次招投标单位数量不多 [49] - **经典与量子随机数区别**:经典计算机生成伪随机数可破解,分布可能有规律;量子随机数由物理机制产生,安全性更高,无分布规律问题 [50] - **海外企业资金支持**:海外谷歌主要靠自有资金投入,IBM、IQE 和欧洲 IQM 等获政府项目资金支持 [51] - **超导技术材料**:涉及微纳加工中的铝膜及其他合金材料,高温超导与低温超导使用不同材料 [52] - **英伟达 GPU 与量子计算**:英伟达强调 GPU 在模拟量子计算中的重要性,当前阶段许多问题需借助 GPU 模拟,经典与量子结合是重要方向 [55] - **专用与通用量子计算机**:专用量子计算机专门解决优化问题,通用量子计算机能处理各种类型问题,未来五年专用设备可能率先在优化场景取得突破 [57] - **未来受益领域**:未来几年人工智能领域可能受益于专用或通用型进展,可降低能源消耗,提高经济效益 [58]