找回密码
立即注册
搜索
热搜: 活动 交友 discuz
发新帖

2万

积分

0

好友

7160

主题
发表于 2026-4-14 13:35 | 查看: 54551| 回复: 0 北京
    尽管人工智能(AI)在医疗领域的应用日益增多,但其“像医生一样思考”的能力仍存在明显短板。由美国麻省总医院MESH孵化器团队开展的一项最新研究发现,生成式AI在临床推理关键环节仍显不足,尚不具备独立承担临床诊疗任务的能力。相关成果发表在最新一期《JAMA Network Open》上。
    团队选取包括ChatGPT、DeepSeek、Claude、Gemini和Grok在内的21种大语言模型,在29个已发表的临床病例中进行测试,并通过逐步提供患者信息(从基本症状到实验室和影像结果)来模拟真实诊疗过程。结果显示,当获得完整信息时,所有模型在超过90%的案例中能给出正确的最终诊断。
    然而,在关键的早期诊断阶段,这些模型普遍表现欠佳。研究发现,超过80%的情况下,模型未能提出合理的“鉴别诊断”,即对多种可能疾病进行系统性分析与筛选。这一能力被认为是临床推理的核心,也是医生决策的重要基础。
    为更全面评估模型能力,团队提出了一种名为PrIME-LLM的新指标,从提出潜在诊断、选择检查手段、给出最终诊断到制定治疗方案等多个环节对模型进行综合评价。结果显示,各模型整体评分在64%至78%之间,表现存在明显差异。
    团队指出,大语言模型更擅长在信息完备的情况下“给出答案”,但在信息不充分、需要开放性推理的情境中表现较弱。随着实验室数据和影像资料的加入,模型表现有所提升,且新一代模型整体优于旧版本,表明相关技术正在持续改进。
    团队表示,当前大语言模型尚不适合在缺乏监督的情况下直接用于临床实践,其价值更在于辅助医生决策,而非取而代之。(记者张佳欣)
来源:科技日报


长期征集各类线索| 邮箱:wytglx@163.com

您需要登录后才可以回帖 登录 | 立即注册

小黑屋|中国企业发展论坛-《中国企业报》河北有限公司北京大数据中心 ( 京ICP备2025127075号 )|网站地图

GMT+8, 2026-4-15 01:11 , Processed in 0.154135 second(s), 30 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表