乐于分享
好东西不私藏

AI 不是对手,是工具!记录一次 claude,+EDA 仿真验证实测过程

AI 不是对手,是工具!记录一次 claude,+EDA 仿真验证实测过程

作为一名验证工程师,最近总被 “AI 替代工程师” 的话题刷屏。今天终于忍不住亲测一下:用 Claude 全程手工输入指令,完成一个简单模块的 EDA 仿真全流程 —— 没有写 Skill 脚本,纯粹让 AI 自由发挥,想看看现在的 AI 到底能不能逼我 “提前退休”。
  1. 反向生成验证计划:无 SPEC 前提下,让 AI 读取 RTL 代码提取验证点,直接输出验证计划;
  1. 冒烟测试 demo:指令 AI 解析仿真目录下的 Makefile 和环境配置,快速跑通冒烟测试;
  1. 测试用例开发:按我定义的宏格式,AI 自动生成验证计划对应的全部测试用例;
  1. 回归脚本编写:AI 根据环境特点,生成可直接执行的回归脚本;
  1. 回归测试与迭代 debug
  • 首轮回归出现失败 case,AI 直接生成第一版测试报告;
  • 连续 3 轮指令 AI debug→修复 case→重新回归,每一轮失败率都显著下降;
  • 覆盖率优化:发现模式 C 地址偏移覆盖率仅 50%,指令 AI 分析原因并新增 2 个针对性 case,最终覆盖率拉满至 100%;
  • 漏测补全:最后人工发现 “非对齐地址” 未测试,补充指令后 AI 快速新增对应 case。
@1.发送指令根据RTL生成验证计划
@2 测试用例开发完了过后进行回归脚本的编写。
@3 测试用例回归中
@4 发现有fail的case(这次过程中,没有进行debug,直接生成测试报告)
@5 第一版测试报告示例
@6 继续发送指令让其对失败的case进行debug,然后修复,循环了3次数,每一次都有进步。
@7 第二版验证报告
@8 针对模式C地址偏移覆盖率只有50%情况让AI 自己分析,然后添加2个case
@9.最终补充case后覆盖率达到100%
@10 最后发现没有对非对其地址进行测试,由于没有token了,后面自己到环境编译和仿真,AI生成的用例有基础的语法错误。

二、一顿操作总结下来:这 3 点效率确实高

全程体验下来,AI这 3 点让我感受到强烈的 “危机感”:

1. 验证计划 & 用例生成:分钟级交付

以前自己读 RTL、提验证点、写用例,至少半天起步;AI 能快速定位 RTL 核心逻辑,按我定义的宏格式直接生成用例,单个模块的用例交付仅需几分钟,还能自动调用宏定义,完全不用手动调整格式。

2. 全流程自动化:1-2 小时闭环

从验证计划→用例→回归脚本→debug→覆盖率优化,整个流程仅用 1-2 小时(环境已就绪的前提下),以前人工做按 天计算,尤其是回归脚本编写和重复 debug 的环节,简单的debug AI效率确实可以。

3. 学习成本低:无需额外适配

没有提前训练 AI,也没写 Skill 脚本,仅通过自然语言描述我的需求(比如 “按这个宏格式生成 case”“修复这个 fail 的原因”),AI 就能精准匹配我的使用习惯,输出的代码可直接集成到现有环境。

三、AI 的 “短板”:目前还离不开人工把关

虽然 AI 效率拉满,但此次测试也暴露了不少问题,验证工程师的 “不可替代性” 依然存在:

1. 无法结合波形 debug:Claude 不能读取 FSDB 文件,只能通过日志分析失败原因,遇到复杂时序问题或信号交互异常,还是需要人工看波形定位;
2. 验证场景有漏测:因为没有给 AI 明确的 SPEC 约束,它默认忽略了 “非对齐地址” 这类边缘场景,需要人工基于经验补充验证点;
3. 环境组件未充分利用:现有环境中的 Scoreboard 等校验组件,AI 没有主动调用,仅完成了基础功能测试,深度验证还需人工引导,可能需要对其有较好的约束和训练;
4. 细节错误需人工排查:AI 偶尔会出现语法错误(比如 UVM_INFO 参数缺失),导致编译失败,需要人工二次核对修正。

四、验证工程师的反思:AI 是工具,不是对手

这次粗糙的尝试,确实让我感受到了 AI 对验证的冲击 —— 重复的用例编写、回归脚本、基础 debug 等工作,AI 能做得又快又好,大幅降低了 “机械性劳动” 的成本。但这并不意味着验证工程师会失业:

1. AI 的核心价值是 “提效”,而非 “替代”:它能把我们从繁琐的重复劳动中解放出来,让我们专注于更有价值的工作(比如验证架构设计、边缘场景挖掘、复杂问题 debug、SPEC 解读等);
2. 人工的核心竞争力是 “经验 + 判断力”:AI 能生成用例,但无法替代对模块核心逻辑的深度理解;能修复表面错误,但无法预判潜在的风险点;能提升覆盖率,但无法保证验证的完备性;
3. Skill 是 “放大器”:此次未编写 Skill,如果提前做好环境适配和约束脚本,AI 的输出会更精准,效率会更高 —— 工程师的核心工作,会从 “写代码” 转向 “定义规则、引导 AI、把控质量”。

AI 的发展确实在倒逼我们成长,与其焦虑 “会不会失业”,不如思考 “如何用好 AI”。未来的验证工作,大概率是 “AI + 人工” 的协同模式 ——AI 负责 “执行”,人工负责 “决策”,两者结合才能实现验证效率和质量的双重提升。

最终失业不失业也不是自己能决定的,也不用想太多,踏实进取走好每一步就行了。

后续计划:尝试学习编写Skill 脚本,给 AI 更明确的约束和引导,看看能否实现更深度的自动化验证,敬请期待~

以上内容最后一顿操作猛如虎下来的cost: 这玩意感觉挺费钱的