先说一件让我有点不安的事
前段时间一个做测试的朋友跟我说,他们团队从 12 个人缩到了 7 个。
不是正式裁员,叫"效率优化"。AI 测试工具上线之后,产出反而比以前高,人就少配了。
我问他,留下来的和走掉的,区别在哪儿?
他说:会用工具的留下了,只会手工跑用例的走了。
我当时没接话。因为这不只是他们一家公司的事。
一、风险:哪些人真的危险了
风险一:纯手工测试,正在被直接替代
照着用例列表一条条点、记录结果、提 Bug 单——这件事的本质是"按规则重复执行"。
AI 加自动化做起来比人稳、比人快、比人便宜。不会疲劳,不会漏点,跑一遍的时间人工要花几小时,它几分钟搞定。
这不是"将来会被替代",是现在就在发生。
风险二:测试开发,"会写代码"不再是护城河
测试圈有条隐形鄙视链存在很多年了:测试开发 > 手工测试。理由就一个——"我会写代码"。
写 Selenium、搭自动化框架、维护 CI/CD 流水线,曾经是实实在在的技术门槛,简历加分,薪资谈判有底气。
但 AI 正在把这道门槛拆掉。
现在一个完全不会编程的人,把需求描述给 AI,能拿到可运行的测试脚本。生成质量还在快速变好。"我会写代码"从核心竞争力降级成了基础操作,不再是护城河。
所以风险从来不是分层的——不是手工测试危险、测试开发安全。只要价值停留在执行层,不管是手动执行还是代码执行,面对的压力是一样的。
风险三:不用 AI 提效的人,会被用 AI 的人甩开
这条是我觉得最被忽视、也最现实的风险。
同样是测试工程师,一个用 AI 生成用例、做覆盖分析、辅助 Bug 定位,另一个还在纯手工一条条写——产出可以差 3 到 5 倍。
这个差距会直接体现在绩效评估和人员编制上。
不是被机器淘汰,而是被会用机器的人淘汰。 这才是你身边正在发生的事。
风险四:等待观望,是最隐性也最致命的风险
很多测试同学现在的策略是"先看看再说",等公司统一推 AI 工具再学。
但等公司推行的时候,旁边已经有人用了大半年了。这半年的差距,在工具熟练度和判断力的积累上,很难短期追平。
不是某天突然被裁,而是差距在悄悄拉大,等你感受到压力再动,成本已经高出很多了。
二、机遇:AI 时代测试人能去哪里
说完风险,说机会——而且我认为这个机会比大多数人意识到的要大。
被淘汰的是执行层,不可替代的是上层能力。质量保障的思想、风险判断力、测试设计方法——这些 AI 不具备,只有人有。
机遇一:质量架构师
AI 能跑用例,但它不知道"什么叫质量达标"。
谁来定义覆盖标准?谁来判断这次发版的风险等级?谁来决定哪个模块必须 100% 覆盖、哪个可以放宽?这些是判断,不是执行。
有经验的测试人天然适合做这个角色。以前这部分判断力被淹没在大量执行工作里,体现不出价值。现在 AI 接手执行,质量判断力反而被放大了,变得更值钱。
机遇二:AI 产品的测试专家
大模型产品、AI Agent 怎么测?
传统"输入 A,期望输出 B"在这里完全失效——AI 的输出是概率性的、上下文相关的,还有幻觉问题、输出一致性问题、提示词注入风险。这是一个全新的测试领域,需要全新的测试思维。
懂测试方法论的人进来有天然优势,但目前市场上几乎没有真正懂这个方向的人。这是真正的蓝海,而且窗口期不会太长。
机遇三:超级个体
AI 把职能边界变模糊了。
以前测试工程师的边界很清晰——用例写好、Bug 提完,活就到头了。代码不归你改,线上问题等开发排期。
现在这个边界正在松动。一个懂测试、懂业务的人,借助 AI 可以把价值半径扩展到开发、修复、工具建设。不需要每件事都精通,AI 帮你补齐短板。
以前一个人干一件事,现在一个人可以驱动多件事。 每往边界走一步,价值就大一圈。
机遇四:把测试经验工具化
测试工程师有一张别人没有的牌:对系统缺陷的系统性理解。
哪里容易出 Bug、哪种操作路径一定会有问题、哪类输入边界永远是高风险区——这些判断,是靠年复一年做测试积累出来的,AI 不天然具备。
但你可以把这些判断"灌"进 AI 工具里,让 AI 按你的逻辑工作。你在测试上沉淀的经验,是 AI 工具的输入,不是被替代的对象。
三、行动建议:现在就能开始做的事
不说大道理,给三个具体的动作。
第一:把你的判断力写出来。 你心里知道哪个模块容易出问题、哪个优先级该是 P0——但这些如果只停留在脑子里,AI 用不上,别人也看不见。试着把这些判断整理成 checklist 或规则,这是你真正的资产,也是让 AI 工具能按你标准工作的基础。
第二:主动往边界走一步。 不需要今天变成全栈,但可以把手边的事往前推一格——复现完 Bug 之后用 AI 试着定位根因,Agent 上线前主动设计几个边界场景。每往前走一步,价值半径就大一圈。
第三:别等公司推动,自己先动。 等公司统一推 AI 工具再学,那时候旁边已经有人用了大半年。主动和被动,半年后的差距会比你现在感受到的大得多。
四、我们团队正在做的事
不只讲道理,说说我们自己的实践。
本职方向:用 AI 全面提效。
用 AI 生成测试用例是最直接的起点——需求文档或设计稿截图丢进去,自动输出带优先级、前置条件、操作步骤、预期结果的完整用例文件,打开 XMind 全选导入,拿到即用。这件事我专门做了一个 GitHub Copilot Skill 来实现(文末有链接)。
除此之外,AI 辅助 Bug 定位、自动生成冒烟脚本、接口 mock 数据生成——这些都在日常工作里跑起来了,整体效率提升明显。
拓展方向:把边界往外推了两步。
一是参与公司内部 AI Agent 的开发。不是整个 Agent 从头写,而是负责工具函数定义、任务边界设计、以及 Agent 行为的测试验证。这部分工作之前是空白——没人定义什么叫"Agent 输出正确",没人管边界情况下会不会崩。我们切进来,把这个空白填上了。
二是承接一部分线上 Bug 的定位和修复。把堆栈信息、业务逻辑、相关代码交给 AI 读,AI 给修复方向,我们来判断方案是否合理、做回归验证、把关上线质量。"懂业务 + 懂测试方法 + AI 处理代码"这个组合,足以独立闭环相当多的线上问题,不需要再等开发排期。
转型过程不是一帆风顺。写代码这件事对很多测试同学来说心理门槛很高,总觉得那是"别人的领域"。但现在的体会是:你不需要从零学编程,你只需要学会和 AI 协作解决问题。 这两件事的难度差距,比你想象的小很多。
以上是给想拓展职业长度和宽度的软件测试工程师的一些个人判断,基于自己的实践和观察,不代表所有人的情况,不喜勿喷。
夜雨聆风