跟着视频学了17个小时,它就能独立主刀做手术
虎嗅·2025-08-11 03:34

文章核心观点 - SRT-H人工智能手术机器人实现了在几乎无需人工干预的情况下成功完成猪胆囊切除手术,标志着手术机器人从辅助工具向“自主执行体”的关键跃迁 [1][2] - 该系统通过观看17小时手术视频完成训练,涵盖16000个人类外科医生手术动作,并首次将自然语言作为机器人手术规划与纠错接口 [4] - SRT-H的成功建立在STAR系统等先前实验基础上,但其采用语言驱动的分层自主架构,能够动态调整手术策略,不再依赖固定脚本 [19] 技术突破与系统架构 - SRT-H基于两层人工智能系统协同工作:第一层AI通过内窥镜视频实时分析手术场景并发出自然语言指令,第二层AI则将指令转化为三维器械动作 [5] - 在8次手术测试中,系统平均每台手术自我修正6次,并能通过语音交互接受医生的实时指导,模拟“导师指导住院医师”的互动模式 [4] - 系统能自主应对不同样本的解剖差异、组织干扰、模拟出血及不完美图像等状况,在实验中实现了100%的成功率 [2][4][20] 行业发展与历史沿革 - 手术机器人技术自20世纪90年代问世,直觉外科公司的“达芬奇”系统是商业化最成功的微创手术机器人代表 [10] - 行业发展经历了从辅助定位、语音控制、预编程路径到主从遥操作的演进,目前正朝着更高自主性水平发展 [12][14] - AI的引入推动传统手术机器人从单一设备走向多样化智能平台,实现了重大范式转变 [11] 技术演进路径 - SRT-H的前身STAR系统擅长软组织缝合术,从2014年辅助缝合逐步进化为具备自主识别、路径规划与执行能力的一体化系统 [15][16] - 2022年STAR系统融合近红外荧光成像、3D视觉识别等技术,首次在活体猪身上进行自主腹腔镜手术,其缝合间距和咬合深度的稳定性优于人类专家 [16] - 与STAR相比,SRT-H突破了预设框架的限制,对个体解剖差异的适应能力显著增强 [18][19] AI赋能手术全流程 - AI在术前阶段可利用计算机视觉与机器学习技术对多模态医学影像进行深度解析,生成高精度三维解剖模型以优化手术方案 [22] - 术后阶段AI可对手术视频和数据进行分析,量化评估手术质量,为医生培训和疗效回顾提供标准化素材 [23] - AI赋能的手术机器人具备优化手术路径与操作精度、提升操作一致性与标准化、增强环境感知与自主决策三大核心能力 [24] 行业挑战与未来方向 - 当前AI手术机器人技术面临手术效率不及人类医生、自主性不足、临床适应性有限及监管体系滞后等多重挑战 [27] - 高质量训练数据的获取与管理是系统开发的核心基石与关键瓶颈,算法性能高度依赖于标注数据的准确性与多样性 [28] - 未来医学AI发展需构建“技术研发—素养教育—伦理治理”三位一体的推进机制,以实现技术与临床的深度适配 [34]