63%的人信AI看病,医生警告这工具可能误诊一半
讲真,现在谁有个头疼脑热不是先问AI?但《自然》杂志上的一项研究直接泼了盆冷水:ChatGPT在急诊分诊中,可能误判超过一半的高风险病例。
- 一项调查发现,63%的人认为AI生成的健康信息可靠。
- 微软、谷歌、OpenAI、Anthropic、苹果、Oura都在疯狂押注医疗AI。
- 家庭医生警告,AI可能让人产生虚假的安全感,从而错过早期诊断机会。
医生自己也在用,但只用来干这个
家庭医生Alexa Mieses Malchuk自己也在用AI,但她的用法很明确:处理文书工作。比如分诊患者信息,或者在患者就诊前准备一些指导性内容。说白了,就是用来解放那些被行政工作淹没的时间。
就在上周,亚马逊和谷歌都宣布了针对医生的医疗软件产品,功能包括预约安排、临床记录和医疗编码。这背后是医生们普遍面临的困境:花在填表上的时间比面对面服务患者还多。
Mieses Malchuk说:“整个医疗保健领域都在发生一些非常巧妙的事情,某种程度上简化了初级保健医生的工作。”但她话锋一转,立刻提醒大家注意技术的局限性。
那篇让所有人惊掉下巴的《自然》研究
争议的核心,是发表在《自然》上的一项研究。研究发现,ChatGPT在分诊标准急诊病例时,将超过一半的病例“低风险化”了。它告诉患者应该去24-48小时评估,而不是直接去急诊室。
“我们的研究结果揭示了被错过的高风险急诊病例,以及危机保障措施的不一致启动,这引发了安全担忧,需要在消费者规模部署人工智能分诊系统之前进行前瞻性验证。”
Mieses Malchuk最担心的就是这个。她说,像ChatGPT这样的AI工具可能会给人一种虚假的安全感,告诉人们“你不需要去看医生”或者“这个情况不用检查”。“这可能就错过了早期诊断的机会。”她强调。

医生教你:什么时候能用,什么时候快跑
Mieses Malchuk的建议很直接:把AI当作一个跳板,而不是医疗建议的终点。它能立刻给你答案,有时还能缓解焦虑,但它不能诊断疾病。而且,大多数筛选这些答案的患者并没有接受过医学培训,无法分辨对错。
“它们的回答质量,完全取决于我们问的问题。”她说。用户可能会遗漏关于自己医疗状况的重要信息,从而导致完全不同的诊断或治疗建议。
那到底什么时候能用?她的答案是:用于一般的健康建议。比如,一个患者刚被诊断出乳糜泻,想知道该吃什么不该吃什么。AI可以制定膳食计划,提供想法和有用的建议。用它来规划锻炼也很棒,借助AI工具很容易就能创建一个定制化的锻炼方案。
但诊断和治疗,请留给专业人士。“对医疗系统的不信任正在增长,这真是一种悲剧。我们宣誓首先不伤害病人,所以想到这些其他资源给患者这种虚假的信心,让他们认为自己可以完全绕过看医生——这是一个不幸的节点。”Mieses Malchuk最后说道。
留言聊聊
你身体不舒服的时候,会先用AI查一下,还是直接去医院?你觉得AI的医疗建议能信几成?
来源:ZDNet AI|原文:Asking AI for medical advice? There’s a right and wrong way, one doctor explains
夜雨聆风