我用AI工具做了3个月测试,这些话不吐不快

先看结果
|
|
|
|
|
|---|---|---|---|
|
|
|
|
73% |
|
|
|
|
62% |
|
|
|
|
67% |
|
|
|
|
75% |
|
|
|
|
58% |
平均效率提升:约60%。
01 开篇:那个深夜,测试群里炸了
上周三晚上11点,测试群里突然热闹起来。
一位外包测试工程师发了条消息:
“刚看到JD,招高级测试,要求ChatGPT写用例经验优先。我们这些只会手工的不配投吗?”
群里瞬间炸了。
有人说:”完了,35岁还没到,先被AI淘汰了。”
有人说:”别制造焦虑,AI写用例根本不准。”
还有人说:”你知道吗,我们公司已经用AI自动生成测试用例了,虽然还要人工复核,但效率确实高。”
AI替代测试工程师的焦虑,已经不是狼来了,而是狼就在门口。
02 我不信,我要自己测
作为某中厂测试负责人,我决定亲自下场,用AI工具做3个月测试。
我选了3款工具:
|
|
|
|
|---|---|---|
| Cursor |
|
|
| Kimi/通义 |
|
|
| 自研AI测试平台 |
|
|
AI没有想象中那么强,但它的进化速度比我想象中快得多。
03 AI到底能做什么?
能做:重复性高的标准化任务
场景:接口测试用例生成
我扔给通义一段接口文档,让它生成测试用例。
它的输出:
-
• 正常登录:用户名密码正确,返回token -
• 用户名错误:用户名不存在 -
• 密码错误:密码错误 -
• 边界:空字符串、SQL注入、XSS注入
覆盖率约70%。需要人工补充业务逻辑,但80%的重复用例可以交给它。
场景:自动化测试代码补全
在Cursor里写Playwright用例:
# 我只写了注释
# AI自动补全了完整代码
await page.click('#login-btn')
await page.waitForSelector('.modal')
await page.fill('#username', 'testuser')
写代码确实快了。但复杂业务场景、异步处理,它经常出错。
场景:回归测试用例筛选
改动是”修改了订单退款接口” → AI筛出23条相关用例。
减少30%的回归测试用例量,漏测率控制在可接受范围。确实香。
不能做:业务理解+探索性测试
不能做1:理解业务规则背后的”为什么”
我们的退款逻辑有个特殊规则:退款金额 > 5000时,需要主管审批。
AI不理解这个5000是怎么来的。
而测试老手知道,这个5000可能和公司风险控制策略有关,他会在边界值5000、4999、5001上反复测试。
不能做2:探索性测试
我让AI去”测试”一个刚上线的营销活动页面。
它按照正常流程走了一遍:领取优惠券→下单→支付成功。
但它没有发现:同一个用户可以重复领取优惠券3次。
这是设计漏洞,不是”流程bug”。
AI擅长验证已知路径,不擅长发现未知风险。
04 三种测试人
第一种:彻底抗拒型
“AI写的那叫什么玩意儿,根本不能用。”
效率没有提升,但也没有被淘汰。只是越来越焦虑。
第二种:盲目依赖型
“反正有AI,出问题也是AI的问题。”
用例质量下降,漏测率上升,很快被团队发现。
第三种:聪明借助型
“AI负责80%的标准化用例,我来覆盖20%的核心场景。”
效率提升,自己有更多时间研究技术。成长最快。
05 测试人的护城河
|
|
|
|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
06 不是AI取代你,是会用AI的同行
这3个月用下来,我最大的感受是:
AI是工具,你是使用工具的人。
工具越来越强,但使用工具的人,才是决定结果的那个人。
与其担心被AI取代,不如今天就开始用AI。
你迈出的第一步,比任何分析都有用。
夜雨聆风