Workflow
具身智能之心
icon
搜索文档
那些坚持具身智能泡沫论的人.......
具身智能之心· 2025-11-28 04:00
行业增长前景 - 以人形机器人为代表的具身智能产业规模正以超50%的增速跨越式发展 [2] - 市场调研机构预测行业市场规模在2030年将达到千亿元级别 [2] 产业发展阶段与特征 - 技术路线、商业模式、应用场景均未成熟,产业发展仍有很大空间 [4] - 一级市场投资依然火热,出现过亿元的大额融资案例 [6] - 当前阶段存在一定的估值泡沫,但有助于资本推动行业发展 [6] - 资本参与有助于更多产业(如制造、医疗、娱乐等)加持行业发展 [6] 行业发展建议 - 行业健康发展需关注商业模式差异,避免重复造轮子和无效的内卷价格竞争 [4] - 在打磨出稳定的业务场景和产品后,行业将进入大刀阔斧的发展阶段 [6]
OpenReview大瓜!原来我的评审低,是好友打的分
具身智能之心· 2025-11-28 01:10
学术评审系统漏洞事件 - OpenReview平台出现系统级漏洞,允许用户通过替换网址字符查看ICLR、NeurIPS、ICML、ACL等AI顶会论文的审稿人身份及评分[4] - 漏洞暴露了学术评审过程中的潜在问题,包括审稿人未理解论文出发点、个人恩怨和恶性竞争导致的低分现象[2] - 平台统计显示存在196个可疑审稿人、120个频繁合作关系和81,782个写作风格相似配对[5] 可疑审稿行为数据 - 评分极端不一致的审稿人平均分在2.67-5.33之间,评分标准差高达3.16-3.77[5] - 存在异常高置信度的审稿行为,其中一个审稿人给出8.00平均分且标准差为0.00[5] - 最高可疑度评分(5分)的审稿人普遍表现出极端不一致评分、异常高置信度和过度评分范围等行为特征[5]
InternData-A1开源:纯合成数据性能比肩顶级真实数据,效果媲美官方π0模型
具身智能之心· 2025-11-28 00:04
文章核心观点 - 由上海人工智能实验室、北京大学等团队推出的InternData-A1,通过其“高保真合成数据 + 模块化生成pipeline”的创新方案,首次实现了仅使用纯合成数据预训练的视觉-语言-动作模型在性能上比肩使用顶级真实数据集训练的模型,为突破机器人学习的数据瓶颈提供了全新路径 [1] 当前VLA模型训练的数据困境 - 当前机器人视觉-语言-动作模型训练面临“两难困境”:真实数据保真度高但采集成本极高、规模有限;传统合成数据则存在技能覆盖窄、物理真实性不足等问题,无法同时兼顾规模、多样性、保真度、迁移性、成本与效率 [2] - 具体而言,真实机器人数据(如π-dataset、Agibot World)采集需专业设备与人工,成本高、场景覆盖有限且多为闭源 [2] - 传统合成数据(如GraspVLA、RoboCasa)则技能单一(以抓取为主)、物理模拟与视觉渲染保真度低、生成效率低下 [2] InternData-A1的核心设计与特性 - InternData-A1的核心设计是通过模块化、自动化的生成pipeline,产出具备“多形态机器人 + 全场景任务 + 高保真交互”的大规模合成数据,以直接支撑VLA模型的端到端预训练 [4] - **核心特性1:超大规模与全维度多样性**:数据集覆盖4类机器人形态、70项任务、227个场景,累计包含63万条轨迹、7433小时交互数据 [4][6] - 机器人形态涵盖单臂(如Franka Emika Panda)和双臂(如AgiBot Genie-1)等主流机型 [6] - 任务类型包括抓取放置(占30.61%)、关节操作(占11.67%)、基础复合任务(占35.95%)和长序列任务(占21.77%) [6] - 资产库包含3185个刚性物体、321个关节物体、20种柔性衣物,场景覆盖227个真实室内布局 [6] - **核心特性2:高保真模拟**:通过物理引擎优化与视觉渲染升级,最小化模拟与现实间的迁移差距 [6] - 物理模拟采用Vertex Block Descent模拟柔性物体,用粒子动力学建模流体,精准还原关节物体物理参数 [6] - 视觉渲染支持照片级真实感,结合174种环境地图与随机光照调节 [6] - 通过域随机化自动随机化物体位姿、相机视角(±5°旋转 / ±5cm平移)等,增强模型鲁棒性 [6] - **核心特性3:模块化生成pipeline实现低成本高效量产**:采用“环境构建-技能组合-域随机化-轨迹生成”四阶段解耦流程 [6][8] - 环境构建阶段从资产库自动调用并标注机器人、场景和物体 [8] - 技能组合通过模块化原子技能(抓取、放置等)拼接任务,仅需调整参数即可适配不同场景 [8] - 轨迹生成基于CuRobo运动规划器生成无碰撞轨迹,仅保留成功案例以确保数据质量 [8] - 通过架构优化,该pipeline在8块RTX 4090 GPU上日均可产出209.7小时数据,大幅降低数据获取门槛 [9] InternData-A1的性能验证与对比 - **与真实数据集对比实现性能平权**:在相同π₀模型架构下,仅使用InternData-A1预训练的模型在模拟任务中全面超越基于真实π-dataset训练的官方模型,在真实场景中实现性能持平 [10] - 在模拟场景的49项任务中,Easy模式成功率达60%(超过官方π₀模型5个百分点),Hard模式成功率达26.5%(超过官方π₀模型6.5个百分点) [10][11] - 在真实场景的5项基础与4项灵巧任务中,性能与基于真实π-dataset的模型持平,部分任务(如“放置马克笔”)成功率超过90% [11] - **模拟-现实迁移效率高**:在10项代表性任务中零样本迁移成功率超过50%,仅需1600条模拟数据即可匹配200条真实数据的效果,部分基础任务实现1:1性能对标 [11] - 对于基础任务(如垃圾分类),200条模拟数据性能比肩200条真实数据 [20] - 对于复杂任务(如包裹翻转),1600条模拟数据即可匹配真实数据效果,数据成本仅为真实采集的1/10 [20] - **与开源数据集对比全维度领先**:相较于RoboCasa(合成数据)、Agibot World(真实数据)等开源方案,InternData-A1预训练模型在模拟任务中成功率领先10%-27.5个百分点,在真实任务中平均领先57.7个百分点 [14][15] - **消融实验验证数据多样性关键性**:禁用不同数据组件后模型性能显著下降,证明任务多样性对预训练至关重要 [16] - 移除长序列任务导致Hard模式成功率下降6个百分点 [16] - 移除关节操作任务导致整体成功率下降7个百分点 [16] 核心结论与行业意义 - 合成数据的规模化是VLA模型通用化的关键,InternData-A1证明足够规模、多样性与保真度的合成数据可完全替代真实数据进行预训练,打破数据采集瓶颈 [21] - 模块化pipeline是数据量产的核心,其解耦架构与自动化流程实现了“低成本、高质量、大规模”的数据生成,为社区提供了可复用的工具链 [21] - 模拟-现实迁移的关键在于“保真度 + 域随机化”,照片级渲染与多维度随机化设计大幅缩小了模拟与真实环境的差距 [21] - 该数据集及生成pipeline的开源,降低了机器人预训练数据的获取门槛,揭示了合成数据在机器人领域的巨大潜力,有望推动VLA模型向“低成本、高泛化、可规模化”方向快速发展 [22] 未来发展方向 - 扩展任务与形态覆盖,例如新增高精度灵巧任务(如精细装配)和更多机器人形态(如人形机器人) [19] - 进行多模态数据增强,融入触觉、声音等模态信息以提升复杂场景适应性 [25] - 端到端pipeline优化,通过强化学习自动优化任务组合与参数配置,进一步降低人工干预 [25]
读了 40 篇 VLA+RL之后​......
具身智能之心· 2025-11-28 00:04
文章核心观点 - 强化学习在视觉语言动作模型领域的应用趋势正从监督微调转向结合强化学习,其核心价值在于提升模型在真实环境中的适应性和任务完成效率[1] - 强化学习在单一任务上已表现出色,当前最大挑战在于实现多任务间的正向迁移,以提升预训练模型的基础性能,这关系到该技术路径的上限[3] - 行业研究重点集中在解决奖励稀疏性、大规模策略网络特性以及多任务学习等关键问题上,这些方向代表了潜在的技术突破点和投资机会[5] 强化学习在VLA中的应用分类与现状 - 强化学习优化方法呈现多样化,包括在线强化学习、离线强化学习、迭代式强化学习及推理时改进等,不同方法在效果上可相互转化[1] - 行业已出现代表性算法案例:What can RL brings to VLA generalization采用在线强化学习,CoRFT采用离线强化学习,pi-star-0.6采用迭代式强化学习,V-GPS采用推理时改进[1] - 强化学习在完成单一复杂任务方面效果显著,例如pi-star-0.6模型仅需约1千条轨迹即可完成叠衣服长程任务[3] 技术部署与基础设施 - 技术部署的核心考量是真实环境的可用性,重点解决安全性与数据采集效率问题,例如SafeVLA项目专注于安全性设计[2] - 模拟环境可能发挥重大价值,存在大规模强化学习预训练的可能性,世界模型与强化学习结合的预训练模式是未来方向[2] - 强化学习基础设施成为关键支撑,RLinf、RLinf-VLA、SimpleVLA-RL等项目在基础设施方面表现突出[2] 多任务学习与技术挑战 - 多任务学习是当前最大技术挑战,目标在于实现任务间正向迁移而非相互干扰,MoRE项目采用混合专家模型应对多任务相互影响问题[3] - 强化学习能否像大语言模型中的RLVR技术那样提升预训练模型基础性能,目前仍不确定,是领域内终极问题[3] - 行业关注多任务学习能否相互促进以及在预训练规模上强化学习能否提供帮助,这些问题的答案将决定技术发展路径[3] 奖励函数设计与技术演进 - 奖励函数或价值函数的必要性存在争议,一方面能降低优化方差,另一方面随着VLA模型性能提升,对密集奖励的需求可能降低[4] - 技术演进参考大语言模型中的GRPO方法已取消批判网络,预示奖励函数设计可能趋向简化[4] - 实际应用中出现两种路径:小奖励函数如SERL中的专用神经网络,大价值函数如VLAC中的视觉语言模型级神经网络[5] 研究方向与课题机会 - 当前主要研究方向包括:奖励稀疏性问题解决方案、大规模策略网络特性研究、多任务学习核心问题[5] - 具体课题机会体现在:DSRL针对扩散模型特性设计强化学习方案,SERL-HIL利用人类干预解决奖励稀疏问题,iRe-VLA专注于稳定性解决方案[5] - 行业已积累大量技术文献,涵盖RIPT-VLA、VLA-RL、pi_RL等30余个关键技术项目,为后续研究提供丰富基础[6]
NeurIPS 2025奖项出炉,Qwen获最佳论文
具身智能之心· 2025-11-28 00:04
会议概况 - NeurIPS 2025会议共收到21575份有效投稿,最终接收5290篇,整体录用率为24.52% [4] - 今年共有4篇论文获得最佳论文奖,另有3篇论文获得最佳论文亚军 [1] 最佳论文奖 - **论文1:Artificial Hivemind: The Open-Ended Homogeneity of Language Models (and Beyond)** - 研究核心为解决大语言模型生成内容同质化问题,提出了Infinity-Chat数据集,包含26K条真实世界开放式用户查询 [7] - 提出了首个用于刻画语言模型面对开放式提示的综合分类体系,包含6个顶层类别和17个子类别 [7] - 基于该数据集的研究揭示了语言模型在开放式生成中存在显著的“人工蜂群思维”效应,包括模型内重复和模型间同质化 [8][14] - 该数据集包含31,250条人工标注,每个样本由25位独立标注者参与 [9] - **论文2:Gated Attention for Large Language Models: Non-linearity, Sparsity, and Attention-Sink-Free** - 论文首次系统性分析了门控机制对大语言模型的有效性,证明其通过增强注意力机制的非线性和提供输入相关的稀疏性来提升性能 [13] - 研究显示,在SDPA之后进行门控取得了最佳效果,在15B MoE模型上提升了测试集PPL和MMLU性能 [17] - 门控机制实现了更低的最终训练损失,并大幅增强了训练稳定性,有效缓解了损失尖峰,允许使用更高学习率 [17] - 该技术已成功应用于Qwen3-Next模型,显著提升了模型性能与鲁棒性 [13][18] - **论文3:1000 Layer Networks for Self-Supervised RL: Scaling Depth Can Enable New Goal-Reaching Capabilities** - 论文证明将网络深度增加到1024层可显著提升自监督强化学习性能,在模拟任务上性能提升了2倍至50倍 [20] - 该方法在无监督的目标条件设定下进行,智能体从零开始探索,增加模型深度不仅提升了成功率,还改变了学到的行为 [20] - **论文4:Why Diffusion Models Don't Memorize: The Role of Implicit Dynamical Regularization in Training** - 研究揭示了扩散模型训练动力学中的隐式正则化机制,识别出模型开始生成高质量样本的时间点t_g和出现记忆化的时间点t_m [22] - 关键发现是t_m随训练集大小N线性增长,而t_g基本不变,随着数据集变大,会出现一个越来越宽的泛化训练时间窗口 [22] 最佳论文亚军 - **论文1:Reinforcement Learning with Verifiable Rewards is Insufficient for Novel Reasoning in LLMs** - 论文给出了关键否定性结论,挑战了“带可验证奖励的强化学习能够激发LLM全新推理能力”这一广泛接受的假设 [28] - **论文2:Optimal Mistake Bounds for Transductive Online Learning** - 该研究解决了传导式在线学习领域一个长达30年的公开难题,精确刻画了最优错误上界为Ω(√d),并给出了与之匹配的O(√d)上界 [32] - **论文3:Superposition Yields Robust Neural Scaling** - 论文论证表征叠加是支配神经网络缩放定律的主要机制,超越了现象性描述,为缩放定律提供了机制性解释 [35] 时间检验奖 - 任少卿、何恺明、Ross Girshick、孙剑2015年合著论文《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks》获奖 [2][38] - 该论文是计算机视觉领域里程碑工作,奠定了现代目标检测框架的核心范式,截至现在已被引用超过56,700次 [38][42] - 论文实现了第一个完全可学习的两阶段目标检测pipeline,取代了selective search和手工设计候选框的方法 [43] Sejnowski-Hinton奖 - 获奖论文为2016年发表的《Random synaptic feedback weights support error backpropagation for deep learning》 [45] - 该论文提出了著名的反馈对齐机制,证明多层网络可在无需对称反馈权重下有效学习,推动了生物可行学习规则的研究方向 [48]
选了一圈具身科研平台,还是这个坑少~
具身智能之心· 2025-11-27 09:40
产品定位与市场反馈 - 产品是一款面向具身智能科研领域的轻量级高性价比机械臂,专为新手、科研初学者、学生、教育工作者及刚入行的开发者设计,旨在帮助用户低成本、高效率地完成算法验证与项目开发 [4][5] - 根据对高校客户的实际回访,有用户能在2天内完成从数据采集、模型训练到推理的全流程,反馈产品“好用”且“坑少”,表明产品具备良好的易用性和开发友好性 [2] - 产品已支持在NVIDIA Jetson Orin Nano(pi0和pi0.5)上部署,相关代码将对客户正式开源,以加速具身智能科研的落地进程 [2] 核心产品优势 - 提供从数据采集、模型训练到推理部署的全流程开源工具链和代码示例,支持视觉、力控等多模态数据融合,并兼容TensorFlow、PyTorch等主流框架,实现端到端的智能算法落地 [6][20][39] - 支持Python和C++双语言开发接口,并兼容ROS1和ROS2,提供URDF模型,支持在Gazebo等主流仿真环境中进行仿真与真机的无缝切换与实时联动,大幅降低开发风险与调试成本 [6][20][21][22][25] - 提供完善的开源软件开发工具包,包含驱动程序、API接口、示例代码与文档,助力开发者快速构建上层应用 [32][33] - 公司承诺后期将陆续升级更新VLA、VA相关的源码,新老客户均可享受升级,并提供快速响应的售后和生态服务,承诺24小时内响应 [22] 机械臂硬件规格 - 机械臂本体重量为4.2公斤,额定负载为3公斤,拥有6个自由度,工作半径为612.5毫米,重复定位精度达到±0.1毫米 [11][22][24] - 供电电压为24V,控制器为PC,材质采用铝合金与树脂,通讯方式为CAN总线 [11][22] - 各关节具备宽广的运动范围与高运动速度,例如J1关节运动范围为-165°至165°,最大速度可达180°/s [11][24] 末端执行器规格 - 提供了多款末端执行器,其重量在631克至704克之间,行程均为0-80毫米,定位精度为±0.5毫米 [13][14][16] - 一款末端执行器规格显示其重量为670克,行程为0-90毫米,重复定位精度为±0.1毫米 [24] 应用与部署实例 - 产品已适配ALOHA ACT等算法,在NVIDIA GeForce RTX 4060显卡上即可完成训练与推理 [53] - 提供的代码示例显示,模型推理时间约在30毫秒至36毫秒之间 [41] - 目前已适配的相机包括Intel RealSense D435系列和奥比中光DCW2 [53] 销售与服务政策 - 产品交付周期为1至2周,提供及时的售后响应 [51] - 产品质保期为半年(非人为损坏),质保期后售后服务按市场价收费 [52] - 公司提供批量采购优惠,并支持基于该产品的项目开发与教学培训 [22] - 产品为单臂销售,不支持无理由退货或测试,仅在产品存在质量问题时支持退货 [53]
今年大家最关注的具身方向要出炉了.......
具身智能之心· 2025-11-27 04:00
研报筹备与调研重点 - 公司正在为具身行业起草一份非常丰富的研报 预计明年第一季度公布 [1] - 研报内容涉及多个模块 包括具身公司的融资、产业、政策、算法、落地、出口等 [1] - 公司希望通过调研了解行业关注内容 以确定研报侧重点 [1] 具身行业研报覆盖领域 - 国内具身产业与政策 [4] - 国外具身产业情况 [4] - 具身公司融资、业务情况 [4] - 具身数采相关 [4] - 具身算法优化部署相关 [4] - 机器人边缘芯片相关 [4] - 具身下游产业发展 [4] - 具身产业人才结构与需求 [4] - 具身公司上市辅导等 [4]
VLA+RL方案:具身的“关键突破”,如何更好地部署落地?
具身智能之心· 2025-11-27 04:00
直播活动概览 - 活动主题为VLA与RL的真机部署及如何更好落地 [5] - 直播时间为12月6日19:30 [17] - 活动形式为线上直播,可通过扫描二维码免费观看 [17] 核心讨论议题 - 探讨VLA的架构和模型现存痛点 [8] - 分析让机器人"舞得更好"的全身运控方案进化空间 [8] - 讨论VLA+RL如何更好上真机、如何挑选"板子"及轻量化实现方案 [8] 分享嘉宾阵容 - 隋伟担任地瓜机器人算法副总裁 [9] - 张强为北京人形机器人首席研究员、学术委员会主任 [11] - 汪天才担任原力灵机合伙人 [11] - 于超为清华大学博士,即将加入清华深研院任助理教授 [13] - 主持人包括Gloria(具身智能之心联创)和刘斯坦(知乎大V、全网13万关注者、《PyTorch自动驾驶视觉感知算法实战》作者、深度流光CTO) [15] 深度内容获取渠道 - 完整版深度内容已独家上线知识星球「具身智能之心」 [20] - 知识星球内容涵盖所有技术细节、QA及未公开彩蛋 [20] - 深度解析主题包括灵巧手的设计与难题、Agent在思想学术与工程领域的真义、Spec-VLA推测解码框架、CMU跨实体世界模型等 [20]
3DGS杀入具身!港大×原力无限RoboTidy即将开源:让机器人在家庭场景“游刃有余”
具身智能之心· 2025-11-27 00:04
文章核心观点 - 由香港大学与原力无限等联合团队发布的RoboTidy基准,通过引入3D Gaussian Splatting技术构建了500个照片级逼真的交互式3D家庭环境,并提供了超过8000条专家演示轨迹,显著提升了机器人在长序列家庭整理任务中的表现,并将真实机器人的任务成功率提升了近30%,标志着具身智能研究在仿真环境真实性与产业落地方面取得了重要突破 [3][4][5][17][23] 技术突破:3DGS构建高保真仿真环境 - 传统仿真器基于3D网格建模,画质失真、缺乏真实光影纹理,导致训练出的算法在真实复杂环境中“水土不服” [7] - RoboTidy引入3D Gaussian Splatting技术,能以超过100 FPS的渲染速度重建照片级真实场景 [8] - 团队扫描了500个真实家庭场景并通过3DGS“克隆”进仿真器,使机器人能感知真实的光照变化、材质质感和反光等细节 [10] - 这种“所见即所得”的视觉保真度为训练高鲁棒性的视觉编码器提供了基础 [11] 任务与数据集:定义家庭整理的长序列规划挑战 - 家庭整理对机器人是顶级的长序列规划挑战,需要结合视觉识别、语义理解和常识推理能力 [13] - RoboTidy提供了包含8000多条专家示范轨迹的高质量数据集,记录了从物体识别、抓取到放置的完整链条,蕴含了人类整理房间的隐性逻辑 [14] - 基于此数据集,团队提出了包含“语义规划器”和“底层策略”的分层控制框架,使机器人能模仿人类“看到杂乱-规划归属地-执行整理”的思考过程 [14] - 基准覆盖了500个具有高多样性的家庭布局场景资产 [14] 产业落地:Sim-to-Real的工程化验证 - 原力无限团队重点攻克了“虚实迁移鸿沟”这一行业痛点 [16] - 在真实机器人测试中,经过RoboTidy高保真环境预训练并结合原力无限自研控制算法的策略,展现出极强的鲁棒性,特别是在处理未见过的物体和复杂背景时表现优于基线方法 [16] - 实验数据显示,该方案使真实机器人的长序列任务成功率相比传统方法提升了29.4% [4][16] - 这证明了高质量的仿真数据可以直接转化为真实世界的生产力 [17] 行业影响:建立标准化基准并开源 - RoboTidy建立了业内首个基于3DGS技术的家庭整理基准,填补了该领域缺乏统一评测标准的空白 [4][19] - 通过开源这套高质量的基准、标准化评测系统和Leaderboard,为全球开发者提供了更真实、严苛、标准的研发起跑线 [19][21] - 基准提供了统一的API接口,方便开发者接入自己的算法 [26] - 评测采用多维度Metric,不仅评估物体是否归位,还评估放置的合理性、美观度及执行效率 [26]
AAAI 2026 Oral | 华科&小米提出具身智能新范式:教机器人「时间管理」
具身智能之心· 2025-11-27 00:04
文章核心观点 - 研究团队提出了一种名为GRANT的新型3D多模态大模型,通过将运筹学知识引入具身智能领域,使机器人能够进行并行任务规划,从而显著提升任务执行效率[2] - 该方法在ORS3D-60K数据集上的实验结果显示,任务完成效率相比基线方法提升了30.53%,3D定位精度提升了1.38%,综合性能提升了10.46%[19] - 这项工作标志着具身智能研究从单一的“语义理解”向高阶的“运筹决策”跨越,为未来智能管家机器人的实际应用奠定了基础[22] 研究背景与痛点 - 当前具身智能机器人通常只能按顺序串行完成任务,缺乏人类“统筹方法”的能力,导致执行效率低下[3] - 核心问题在于现有机器人缺乏运筹学知识,无法识别哪些任务可以并行执行,哪些必须独占注意力[5] - 例如,面对“微波炉热饭35分钟”和“洗水槽20分钟”的指令,机器人串行执行需55分钟,而人类并行执行只需35分钟[8] 技术方案与创新 - 提出了基于运筹学知识的3D定位任务调度新任务,并构建了包含4,376个场景和60,825个复合任务的大规模数据集ORS3D-60K[6][12] - 数据集中平均指令长度达311个单词,包含复杂的时间约束和空间描述,并经过运筹学求解器验证提供最优调度方案[13] - 设计了GRANT框架,采用“大模型+求解器”协同架构,通过调度令牌机制让LLM负责语义理解,外部求解器负责数学优化[16][19] 数据集特点 - ORS3D-60K数据集规模达60,825个任务,远超同类数据集如TaPA的15,418个任务和LEO的13,848个任务[12] - 数据集创新性地将子任务分为非并行化任务和并行化任务,前者需持续操作,后者仅需启动和检查[15] - 该数据集填补了现有数据集中缺乏运筹学调度与3D空间联合考察的空白[22] 实验结果 - 在时间效率指标上,GRANT相比Grounded 3D LLM等基线方法提升30.53%[19] - 3D定位准确率达到53.49%,显著高于3D-VisTA的13.73%和PQ3D的14.03%[18] - 实际案例显示,模型将总耗时从74分钟压缩至45分钟,效率提升39%[21]