
这段时间,IT圈里有个词突然火了。
小龙虾。
很多人用这个词来指一类新的AI系统,比如OpenClaw这种智能体框架。
它不只是聊天机器人。
它可以接工具、跑任务、自动分析数据,甚至可以帮你做一整套自动化工作流。
很多人开始说:
未来每个人都应该养一只自己的“小龙虾”。
它可以帮你看数据、整理信息、自动执行任务。
听起来很美好。
但如果你把这个想法拿到医院信息科去聊,很多人的第一反应往往不是兴奋,而是:沉默。
不是信息科不懂AI。
恰恰相反。
很多信息科的人,对系统风险的敏感度远远高于普通IT岗位。

所以当有人说:
“可以用小龙虾帮忙分析系统、自动处理任务。”
信息科的人脑子里往往会立刻浮现出一连串问题。
这些问题,大概可以归纳成六个。

医院系统最敏感的不是服务器。
是数据。
病历数据。 医保数据。 患者隐私。
如果AI系统需要读取日志、监控甚至数据库信息,很多信息科第一反应就是:
这些数据会不会被传到外网?
只要涉及到外部模型调用,这个问题就很难回避。
一旦数据泄露,问题就不再是技术问题,而是安全事故。

很多信息科这几年最忙的事情之一,其实不是运维。
而是:
等保。
安全测评、漏洞扫描、整改报告。
在这种环境下,引入一个新的系统,本身就意味着新的安全评估。
很多信息科会先问一句:
这个系统能过等保吗?
如果答案不确定,很多医院就会直接放弃。

如果AI系统要参与运维,它通常需要读取很多系统信息。
服务器日志。 数据库状态。 接口访问记录。
这些操作往往涉及账号权限。
一旦权限控制不当,AI系统本身就可能成为新的攻击入口。
在医院环境里,这种风险几乎没人愿意承担。


信息科的人,对“稳定”有一种天然执念。
系统能跑就好。 不要乱动。
很多AI系统在互联网环境里更新很快。
模型升级、插件更新、版本变化。
但医院系统更在意的是:
稳定。
任何可能影响系统稳定性的东西,都会让信息科保持距离。

还有一个非常现实的担心:
误操作。
如果AI系统可以执行自动化任务,比如:
调用接口 运行脚本 执行数据库操作
一旦判断错误,可能就会产生严重后果。
信息科的人最怕的一件事是:
系统崩了。
如果是人工操作,排查路径至少清晰。
谁执行的命令。 什么时候操作的。 日志在哪里。
但如果是AI自动执行的操作,很多人会担心:
系统崩了,可能连原因都不好查。

最后一个问题,其实最现实。
如果AI系统出了问题,责任算谁的?
信息科? 厂商? 还是AI本身?
在很多医院环境里,这类责任界限并不清晰。
所以很多信息科宁愿继续用传统方式:
人工监控。 人工排查。 人工处理。
至少出了问题,责任是明确的。

但有意思的是,另一件事情也在发生。
医院系统越来越复杂。
系统越来越多。接口越来越多。日志越来越庞大。
靠人一直盯系统,其实越来越困难。
所以未来的信息科,很可能会慢慢出现一种变化:
不是不用小龙虾。
而是 重新设计小龙虾。
比如本地模型、日志脱敏、 权限隔离、只读分析。
在这种架构下,小龙虾其实不是一个控制系统。
而只是一个:辅助分析系统。
它不操作业务系统。
只负责发现异常。
如果这样理解,小龙虾可能不会成为信息科的风险。
反而会变成信息科的一种新能力。
文章来源:AI与医信者
仅作学习分享,如有侵权,联系删除
合作咨询请拨打
400-885-0695
为医软件(原名北京华易通科技有限公司)始创于 2002 年,是一家专注于医疗信息化解决方案的国家级高新技术企业。公司以北京为战略中枢,业务网络辐射全国。三十余家分支机构作为关键支点,深入区域市场,形成覆盖广泛、纵深支撑的本地化服务体系,已累计服务 1800 余家医疗机构。
二十余年来,公司致力于医疗软件的设计、研发、销售、培训与服务,提供智慧医疗全流程全场景解决方案。
2026年,公司正式更名为北京为医软件技术有限公司,以全新身份继续引领行业创新,赋能医疗数字化转型。
夜雨聆风