中山大学最新Cell子刊:AI能够帮助医生克服技术障碍,但存在依赖风险
生物世界·2025-11-27 04:11

文章核心观点 - 大语言模型能有效帮助医生克服技术障碍,显著提升其参与医学人工智能研究的项目完成率[3][5][7][9] - 大语言模型的应用使医疗AI研究民主化,但同时也存在AI幻觉和医生产生依赖倾向的潜在风险[3][5][6][7][9] 研究背景与挑战 - 跨学科研究推动了科学领域突破,但在生物医学领域,AI等技术的广泛应用受限于技术障碍[2] - 医生因缺乏多学科专业知识或技能,以及难以获得工程支持,在AI技术的问题导向型研究中参与受阻,偏远地区或资源有限的年轻医生面临的挑战更明显[2] 研究设计与方法 - 研究团队开展了一项随机对照试验,招募64名初级眼科医生进行为期两周的“自动化白内障识别”项目[5] - 干预组32人使用大语言模型ChatGPT-3.5,对照组32人不使用,在最小化工程辅助的情况下进行[5] 研究结果与数据 - 干预组项目总完成率高达87.5%,显著高于对照组的25.0%[5][7] - 干预组无辅助完成率为68.7%,远高于对照组的3.1%[5] - 干预组展现出更优的项目规划能力和更短的完成时间[5] - 经过两周洗脱期后,41.2%的成功干预组参与者能在没有LLM支持的情况下独立完成新项目[5][7] 潜在风险与影响 - 42.6%的参与者担心会不加理解地复述AI信息,40.4%担忧AI会助长惰性思维,表明存在潜在依赖性风险[5] - 大语言模型存在幻觉风险,其长期使用形成的依赖风险需进一步研究评估[6][7][9] - 研究提出了与大语言模型有效互动的初步提示指南[7]