医院难以验证GPT-AI完成的临床摘要
尽管很多医院热衷于投入人力物力开发GPT-AI"医生助手"或医用聊天机器人,但在真实环境中验证GPT-AI“助手”过程中,医院管理者和医生感觉"有点混乱",并没有达到预期目标和期望值。关注详情。
阅读文摘
随着人工智能(AI)在医疗保健领域的应用快速增长趋势,各级医院都在评估和部署GPT-AI辅助医生完成患者疾病的临床摘要,比如医护人员在交接班时审阅患者的病历小结,以及门诊病历报告小结等,都面临着挑战。
尽管AI技术,如GPT-4展示了处理复杂医疗内容记录的巨大潜力,但在准确性和安全性方面仍存在问题。
医护人员特别担心AI助手可能遗漏或错误地解读某些关键医学词语或信息,尤其是在缺乏专业人员审核的情况下。
这种担忧导致了医院在引入和落实这些GPT-AI技术时需要选择如何测试其性能、提供哪些安全措施以确保其在真实环境中的安全高效使用。
根据纽约大学朗格医疗健康中心的一项研究报告,使用GPT-4将患者出院摘要转换为易于理解的短文形式,提高了患者对个人疾病状况的可读性和理解,但也发现了AI助手产生的错误和遗漏。这些突显了AI技术的潜力与风险,仍然需要人工干预和审阅以保障准确性。
目前,评估AI生成的医疗文档摘要的方法,仍缺乏标准化和质量控制系统,达到医生满意的结果仍需要解决这些挑战。
为此,AI医学研究人员正在建立评估标准,希望能为AI医学助手在临床病例摘要应用中创建一个可重复使用的评估框架参考。AI技术的快速发展带来了可能的获益同时也产生了潜在风险,这是必然的,但如何解决才是人类的智慧。
AI医学讲座第二部分(3月31日开始)
人工智能(AI)进入医疗保健领域,医护人员借助AI提供更加精准的诊疗,患者获得更加个性化的健康管理和建议。与此同时,也降低了医保费用支出和患者反复住院或急诊率。这些已是不争的事实。
然而,目前医院和医疗主管部门仍在观望AI技术在真实环境中的应用效果,其原因之一是知识和信息储备不足,希望了解更多案例。我们在AI医学讲座第一部分中,以案例解析为主,讲解了智慧医院引入AI技术,包括生成式GPT-AI辅助建立医院“AI窗口”;临床常规检查,数字信息化转型进入AI医学决策中心等。