最近自己在摸索 OpenClaw、Claude Code 这些 agent 的时候,有一些挺直接的感受。
说实话,一开始我只是觉得:哦,又能写代码更快一点了。
但用着用着,慢慢发现不太对。
这些东西,好像不只是“帮我写代码”那么简单。
尤其是回头再看 AI 制药这个方向,我越来越觉得——对我们这些做 AI 的人来说,冲击可能比想象中要大。
一、以前大家比的是模型
这两年聊 AI 制药,基本都在聊模型。
谁结构预测更准,谁生成模型更强,谁虚拟筛得更快。
但最近我有种挺明显的感觉,方向好像在慢慢变。
问题可能已经不是“模型够不够强”了,而是:这些东西,能不能自己跑起来。
二、从“帮你写代码”,到“替你干活”
像 Claude Code 这种工具,最直观的就是写代码快了,改 bug 轻松了,训练脚本不用从头写。
原来一天干的活,现在一两个小时就能搞定。
但本质上,它还是个“助手”。只是这个助手水平挺高。
三、另一种方向:AI 开始自己跑流程
我觉得更有意思的是 OpenClaw 这种。
它不是帮你写一段代码,而是想把整件事接过去。
你把一个任务丢给它,比如:
找数据 → 处理数据 → 跑模型 → 出结果
它能一整条链路跑下来,而且不是跑一次,是可以一直跑。
这件事放在 AI 制药里就有点不一样了。
因为我们很多工作,本来就是“流程型”的:
换批数据再训练一次
换个模型结构再试一轮
多筛几轮看看有没有更好的分子
这些事情不复杂,就是重复。
现在的问题是:这些重复的事,开始有人(或者说 AI)可以一直干了。
四、变化不在模型,在“怎么用模型”
以前大家比的是模型好不好、精度高不高。
但如果流程被打通,事情就变成了:
谁能更快试错,谁能跑更多轮实验,谁能更稳定地产出结果。
你不再关心某一次实验是不是最优,而是关心:能不能持续地产出还不错的结果。
五、一个挺直观的变化
拿我现在做的方向(比如抗菌肽生成)来说,区别很具体:
以前:
自己写模型
自己调参数
一轮一轮看结果
以后更可能是:
定个目标(活性+毒性约束)
系统自己去生成一批序列
自动打分、筛选
不满意就继续下一轮
人反而变成了在旁边看:什么时候该停,什么时候该换方向。
六、但这件事没那么美好
说到这里,很容易给人一种感觉:AI 制药要自动化了,人要没了。
我觉得没那么快,甚至可能差得还挺远。
几个现实问题,现在都还没解决:
1. 数据本身还是不够好
很多时候模型的问题其实是数据的问题。数据偏、数据少、标签不准,不会因为多了个 agent 就消失。
2. “自动跑”不等于“跑对”
流程可以自动化,但方向不一定对。模型可能会在一个错误的目标上反复优化,跑得越久,错得越远。
3. 实验这一关还是卡着
AI 能生成一万条序列,但真正能验证的,还是那几十条。实验成本、周期,这些瓶颈一点没变。
4. 成本可能反而更高
自动化之后,调用模型、跑计算的次数会变多。很多时候不是更省钱,而是更快地把钱花完。
七、对我们做 AI 的人意味着什么
说回到开头那个问题:这些 agent 对 AI 制药中做 AI 的人,冲击到底在哪?
我觉得至少有这么几条:
1. 纯“调模型”的人,价值在变低
以前会训一个模型、调一调超参数,就已经很有竞争力了。
但如果别人用 agent 就能自动跑几十组实验,你还在手工调,差距一下就出来了。
2. 懂“流程”的人,价值在变高
现在越来越需要的是:知道怎么把整个链路串起来,怎么定义任务边界,怎么让 agent 稳定地产出结果。
换句话说,不只是会用模型,而是会设计一个能自动跑的系统。
3. 离实验近的人,反而更安全
AI 再怎么自动化,最后还是要进湿实验验证。
如果你既懂 AI,又懂一点生物、化学,能和实验那边对上话,那你的位置其实比纯做 AI 的人更稳。
4. 重复劳动会快速贬值
以前写脚本、洗数据、跑 baseline 这些活,可能是初级工程师的主要工作。
但这些恰恰是 agent 最容易替代的。
最后
不是 AI 开始取代人做药,而是:
做药这件事,开始可以被“系统化”了。
对我们做 AI 的人来说,问题可能不再是“我的模型比别人强多少”,而是:
我能不能成为那个设计系统、定义问题、判断方向的人。
至于这个系统最后会发展到什么程度,现在其实还不好说。
夜雨聆风