乐于分享
好东西不私藏

软件测试|AI大模型Skills实战:从"会思考"到"能落地",重构测试效率(建议收藏)

软件测试|AI大模型Skills实战:从"会思考"到"能落地",重构测试效率(建议收藏)

相信很多测试宝子都遇到过这种情况:领导开会提到”咱们也用用AI提效吧”,你当场就懵了——ChatGPT倒是天天刷,但真让你用到实际测试工作里,完全不知道从哪下手

更尴尬的是:看别人发的”AI自动生成测试用例”截图,你兴冲冲照着试了一遍,结果AI给的用例要么太宽泛没法执行,要么压根不符合业务逻辑,最后还得自己重写,感觉纯纯浪费时间

做测试的小伙伴肯定都经历过这种”理想很丰满,现实很骨感”的时刻:明明知道AI能提效,但就是用不好、落不了地,最后只能继续手工干活。问题出在哪?其实不是AI不行,而是你的提问方式不对

今天咱们就聊聊AI大模型的实战技巧——不讲虚的概念,只说怎么让AI真正成为你的测试助手,从”会思考”到”能落地”。


先说个大白话:AI就像个”刚入职的实习生”

很多测试同学对AI有误解,觉得它应该像资深测试一样,给个需求就能自动输出完美方案。这不现实

打个比方:你可以把AI理解成一个刚入职的实习生——他聪明、学习能力强、执行速度快,但缺乏项目经验和业务积累。

如果你直接甩给他一句”把这个登录功能测一下”,他大概率会懵逼,最后给你交一份”账号密码正确能登录、错误不能登录”的基础用例,完全没有深度

但如果你这样说: “我们的登录功能用的是JWT令牌认证,有效期2小时,支持手机号+验证码、账号密码、第三方登录三种方式。之前出过一个线上Bug:并发登录时token会被覆盖导致A用户操作触发B用户的数据。现在你帮我梳理一下测试点,尤其是并发安全、token有效性、多端互踢这几个方向。”

结果就完全不一样了。AI会基于你提供的上下文(技术实现+历史问题+重点方向),给出更贴合实际的测试方案。

所以核心逻辑就是:你提供的信息越详细、指向性越强,AI的输出质量就越高。这就是所谓的”提示词工程”(Prompt Engineering),但别被这个术语吓到,其实就是学会跟AI”说人话”


实战技巧:4个维度重构你的AI提问方式

我这些年用AI辅助测试,总结出一套超实用的提问框架。不管你测什么功能,套用这个框架都能让AI输出质量提升80%以上。

一、明确角色+任务目标(告诉AI”你是谁、要干啥”)

❌ 低效提问:”帮我写个支付接口的测试用例”

✅ 高效提问:

你是一位有5年经验的测试工程师,现在要测试一个在线支付接口。
任务目标:设计一套完整的测试用例,重点关注资金安全和异常处理。

**为什么要加角色设定?**因为AI是语言模型,你告诉它”你是测试工程师”,它就会调用测试领域的知识储备;如果你不说,它可能用开发视角或者产品视角回答你,答非所问

我习惯的做法是:先定义AI的角色(测试工程师/安全专家/性能调优师),再说清楚任务目标(写用例/定位Bug/优化策略),这样AI的回答会更聚焦。


二、提供业务背景+技术细节(给足”弹药”)

很多人用AI时只描述功能,不说技术实现,导致AI给的方案很表面。记住:细节越多,方案越靠谱

必须提供的信息包括

1. 业务规则

  • 支付金额范围是多少?
  • 是否有优惠券/积分抵扣?
  • 支付失败后如何处理(回滚/重试)?

2. 技术实现

  • 用的什么支付渠道(微信/支付宝/银联)?
  • 是同步回调还是异步通知?
  • 数据存储在哪(MySQL/Redis/MQ)?

3. 已知问题

  • 之前出过什么线上Bug?
  • 哪些场景是高风险点?

举个实际例子

❌ “帮我测下订单支付功能”

测试场景:电商平台的订单支付功能
业务规则:
- 订单金额0.01-50000元
- 支持微信/支付宝,超时时间15分钟
- 支付成功后异步扣库存、发优惠券

技术实现:
- 调用第三方支付网关,回调地址接收异步通知
- 订单状态存MySQL,支付流水存MongoDB
- 库存扣减用Redis原子操作

已知风险:
- 之前出过重复支付(用户快速点击导致请求重复)
- 回调延迟时用户看到订单还是"待支付"

请帮我设计测试用例,重点关注:
1. 支付幂等性(防重复扣款)
2. 异步回调的时序问题
3. 库存一致性

**看出区别了吗?**后者提供的信息量是前者的10倍,AI自然能给出更深入的测试方案,甚至会提醒你”需要模拟回调延迟的场景”、”验证Redis扣库存的原子性”这些容易漏的点。


三、约束输出格式(要什么就说什么)

AI默认会给你一大段文字,读起来累、用起来更累。直接告诉它你要什么格式,效率翻倍

常用格式要求

1. 结构化表格

请用表格形式输出,包含:
- 用例编号
- 测试点
- 前置条件
- 操作步骤
- 预期结果
- 优先级(P0/P1/P2)

2. 分类归纳

请按以下分类输出:
- 功能正向用例
- 边界异常用例
- 性能压测场景
- 安全风险点

3. 可执行脚本

请直接生成Postman格式的接口测试脚本,包含:
- 请求头设置
- 参数构造
- 断言逻辑

我最常用的一招是:让AI直接生成带优先级的用例清单,这样评审时领导一眼就能看出重点,省了我很多解释时间。


四、追问优化(一次问不好,就多问几轮)

很多人用AI是”一锤子买卖”:问一次不满意就放弃了。其实AI的强项就是迭代优化

实战技巧

第一轮:先让AI生成基础框架

帮我梳理支付功能的测试点

第二轮:针对某个点深挖

你提到的"支付幂等性",具体怎么测?需要构造什么数据?

第三轮:要求补充遗漏

从安全角度,还有哪些风险场景我需要关注?比如恶意刷单、篡改金额

第四轮:要求输出可执行方案

把"并发支付导致重复扣款"这个场景,写成JMeter压测脚本

之前有个粉丝私信我说:他用AI生成的用例总是不够深入。我问他”你追问了几轮”,他说”就问了一次”。这就是问题所在——AI需要你引导它逐步深入,别指望一次到位。

我现在的习惯是:每个功能至少跟AI对话3-5轮,从框架到细节、从正向到异常、从功能到性能,一层层挖下去,最后整合成完整方案。


落地场景:三个我每天都在用的AI技能

说完提问技巧,再分享几个超高频实战场景,直接拿去用。

场景1:需求评审前,用AI做”测试左移”

以前拿到需求文档,我要花1-2小时梳理测试点。现在我会先把需求丢给AI:

这是我们的产品需求文档(粘贴内容),请从测试角度分析:
1. 哪些需求描述不清晰、可能有歧义?
2. 有哪些隐藏的技术实现细节需要开发明确?
3. 可能存在的性能风险点有哪些?

AI会给我一份问题清单,我拿着这个去参加需求评审,直接问产品和开发,显得特别专业,而且能提前发现很多坑。


场景2:写自动化脚本,让AI当”代码助手”

我不是开发出身,写Python/Java脚本经常卡壳。现在我直接问AI:

我要写一个接口自动化脚本,实现以下功能:
- 调用登录接口获取token
- 用token调用下单接口
- 验证订单状态是否正确
- 框架用pytest,请求库用requests

请给我完整代码,包含断言和异常处理

AI给的代码80%能直接跑,剩下20%我稍微改改就行,效率至少提升5倍


场景3:线上Bug复盘,用AI辅助定位

线上出Bug后,我会把日志和错误信息喂给AI:

线上报错日志如下(粘贴内容),请帮我分析:
1. 可能的根因是什么?
2. 如何复现这个问题?
3. 建议增加哪些测试用例防止复发?

AI会基于日志特征,给出可能的原因+复现路径+防御措施,我再结合实际情况验证,定位速度快很多。


综合以上,核心思路就是:把AI当”工具人”用,别指望它当”专家”

其实这背后的底层逻辑是:AI的优势在于信息整合、快速生成、批量执行,但它缺乏业务理解、经验判断、风险嗅觉

所以正确的协作模式应该是:

  • 你负责
    :定义测试策略、识别业务风险、把控质量标准
  • AI负责
    :生成基础框架、执行重复任务、提供思路参考

教大家一个我常用的小技巧:建立自己的”AI提示词模板库”。

我把常用的提问模板(如接口测试、UI测试、性能测试、安全测试)都整理成文档,每次用的时候直接复制粘贴、改改参数,省时省力还保证质量

比如我的”接口测试提示词模板”长这样:

【角色】你是一位资深接口测试工程师
【任务】设计XXX接口的完整测试方案

【接口信息】
- 接口路径:
- 请求方式:
- 入参字段:
- 出参字段:

【业务规则】
(填写业务逻辑)

【技术实现】
(填写技术细节)

【输出要求】
1. 功能测试用例(正向+异常)
2. 性能测试场景(并发量、响应时间)
3. 安全测试点(参数校验、权限控制)
4. 输出格式:表格,包含优先级

每次测新接口,填空就行,3分钟搞定以前1小时的活儿


写在最后

说实话,AI不会让测试岗位消失,但会用AI的测试会干掉不会用的测试

现在不上车还来得及,但别盲目跟风——不是每天刷ChatGPT就叫”会用AI”,关键是找到适合自己工作场景的实战技能