每周2亿人在向ChatGPT"问诊",但最新研究说:别太信它

凌晨两点,小王翻来覆去睡不着。胃不舒服,已经持续三天了。
挂个号?明天还得上班,请假扣全勤。上网搜?满屏广告,越搜越焦虑。
他想了想,打开ChatGPT,敲下几个字:"胃疼三天,吃完饭更严重,是什么原因?"
几秒钟后,一段看起来非常专业的回答出现在屏幕上。条理清晰,语气笃定,甚至还贴心地列出了几种可能的疾病和对应的处理建议。
小王觉得安心了不少,吃了一片之前剩下的胃药,睡去了。
这样的场景,正在全世界每时每刻地发生着。
根据OpenAI公布的数据,每周有超过2亿用户向ChatGPT咨询健康相关问题。这不是一个小数字——它意味着在全球范围内,有数量可观的人正在把AI当作自己的第一道"健康防线"。
2026年1月,OpenAI正式推出面向普通用户和临床医生的健康工具。几乎同时,Anthropic也宣布为Claude引入医疗服务能力。各大科技公司都在争抢"AI健康"这个赛道——美团在4月14日刚刚推出了"小团健康管家"和付费会员服务"健康卡",蚂蚁集团的AI健康助手"阿福"也在不断抢占用户心智。
AI看病,已经从科技圈的尝鲜行为,变成了一种被普通人广泛接受的日常习惯。

但问题是:这些AI,真的靠谱吗?
4月15日,彭博社报道了一项发表在权威医学期刊**《BMJ Open》**上的研究。来自美国、加拿大和英国的研究团队,对目前市面上五款最主流的AI聊天机器人——ChatGPT、Gemini、Meta AI、Grok和DeepSeek——进行了一场"医疗水平大考"。
测试方法并不复杂:围绕五类健康主题,每个平台回答10个问题。
结果呢?
在所有回复中,约50%被认为"有问题",其中近20%属于"严重问题"。
换句话说,你问AI两个健康问题,可能就有一个是错的;问五个,可能就有一个会给你造成实质性伤害。
更让人不安的是研究揭示的另一个细节:这些AI在回答时,语气往往非常确定,好像在陈述不容置疑的事实,但实际上缺乏可靠的医学依据。
没有一个模型能够提供完整且准确的参考来源。在整个测试过程中,AI拒绝回答的情况只出现了两次,而且两次都来自Meta AI——这意味着绝大多数AI面对自己可能答错的问题时,也毫无顾忌地给了你一个答案。
它们不犹豫,不谦虚,不提示你"我只是个AI,请咨询专业医生"。它们像极了那种最危险的"半桶水"——什么都敢说,说起来头头是道。
研究还发现了一个很有意思的规律:
AI在封闭式问题(比如"感冒了该不该吃抗生素")以及疫苗、癌症等话题上表现相对好一些。这可能是因为这类问题在训练数据中有大量高质量的医学文献支撑。
但在开放式提问(比如"我最近总是疲惫,可能是什么原因")以及干细胞、营养等话题上,AI的表现明显下滑。
这其实很好理解。医学诊断从来不是一个"信息检索"问题,它需要综合患者的病史、体征、生活习惯、家族遗传等多维度信息,结合临床经验做出判断。而AI本质上是在做"概率预测"——它根据训练数据里见过类似症状对应的诊断,生成一个"最可能的答案"。
问题在于,"最可能的答案"和"正确的答案"之间,可能隔着一道生死线。
这项研究最核心的发现,用研究人员自己的话说,是AI系统会持续生成**"听起来权威但实际上并不可靠"**的回答。
这比直接告诉你"我不知道"要危险一百倍。
想象一下:一个年轻的妈妈,孩子发烧了,大半夜的医院排队太长。她打开AI,问该不该给孩子用退烧药,用多少剂量。AI给了她一个"看起来很专业"的回答,但这个回答可能是错的。
或者一个正在备孕的女性,在网上查各种营养补充剂的信息,AI信誓旦旦地告诉她某种保健品"安全有效",但实际上可能存在她不知道的风险。
这些不是假设。研究已经证实,这种情况正在大规模发生。
研究作者发出了明确的警告:在缺乏公众教育和监管的情况下,大规模部署AI聊天机器人,可能导致错误信息被放大传播。
这不是在否定AI的价值。AI在医学影像识别、药物筛选、基因分析等专业领域的应用确实取得了巨大进步。但那是在专业医生的监督下,针对特定任务的辅助工具。
而如今正在发生的,是数以亿计的普通人把AI当作家庭医生来用。这两者之间有本质的区别。
更值得警惕的是,科技公司们正在加速推波助澜。OpenAI推出了健康工具,Anthropic引入了医疗服务,美团做"健康管家",蚂蚁做"阿福"——每一家都在告诉你"AI可以帮你管理健康"。
但很少有人会提醒你:AI不能帮你诊断疾病,不能帮你开处方,不能为你的健康决策负责。
说到底,它只是一个语言模型。它会说话,但它不是医生。
这不是一篇要你"远离AI"的文章。AI确实可以帮你了解一些基础的健康知识、解释体检报告里那些看不懂的指标、提醒你哪些症状需要引起重视。
但请记住几条简单的原则:
**第一,AI的回答只能作为参考,不能作为决策依据。**特别是涉及到用药、手术、孕期等关键决策时,请一定去找真正的医生。
**第二,如果AI给你的建议让你感到不安或与你的直觉不符,多问一个医生。**很多时候,你的身体比你以为的更了解自己。
**第三,对AI的"笃定"保持警惕。**语气越确定,越不代表它是对的。
**第四,不要在深夜、焦虑、生病的状态下独自依赖AI做健康判断。**那个状态下,你是最容易被错误信息带偏的。
这项研究发表于2026年4月15日,但类似的警告已经不是第一次出现了。
只是这一次,数据比以往任何时候都更清晰:50%的有问题率,20%的严重问题率——这不是一个小概率事件,这是一个掷硬币都不如的准确率。
AI时代已经来了,它在改变我们工作、学习、社交的方式,现在正在渗透到我们最私密的领域——健康。
拥抱技术没问题,但请对自己的身体保持敬畏。
毕竟,ChatGPT不会因为给你开了错药而睡不着觉。但你可能会。
参考来源:
彭博社/BMJ Open研究报道(2026年4月15日) 联合早报:《研究:AI聊天机器人提供的医疗建议 近半具误导性》 IT之家:《"AI医生"并不可靠,研究称五款头部AI平台半数医学建议存在误导性》
夜雨聆风