AI编程做大型项目(一):会拆分的人+AI=10倍效率
AI编程做大型项目(一):会拆分的人+AI=10倍效率
本系列共5篇,每天一篇:
– (一)会拆分的人+AI=10倍效率 ← 你在这里
– (二)从0到上线的完整流程
– (三)七道质量防线+人怎么把关
– (四)多Agent协作+三条实战路径
– (番外)为什么有了AI,你反而更需要软件工程
但把AI放到一个真正的大型项目里——前后端分离、上万行代码、多个模块协作——结果就是:改了A模块,B模块就报错;修了B模块,C模块的测试又挂了。改了三天,bug越改越多。
这不是个别现象。GitHub 2025年开发者调查显示,开发者每周花8.5小时在代码审查上,其中40%的时间在修复AI生成但没检查的问题。
会拆分的人 + AI = 10倍效率,不会拆分的人 + AI = 10倍混乱。
本文讨论的”大型项目”标准:前后端分离、代码量过万行、涉及多个功能模块、需要长期维护、有生产级质量要求。
多数人用AI编程时,过度聚焦编码环节——把AI当打字机,忽略了前期的设计和后期的验证。
传统软件工程有个经典规则:40%设计 — 20%编码 — 40%测试。AI编程不仅没过时,反而更重要了。
“`
40%时间 → 前期(写代码前)
需求分析 → 可行性验证 → 技术选型 → 数据模型设计
→ API契约设计 → 架构设计 → 风险识别 → 计划拆分
产出:/docs目录下的完整设计文档
20%时间 → 中期(编码阶段)
功能开发(TDD模式)→ 代码自检 → 规范提交
产出:功能代码 + 测试
40%时间 → 后期(测试上线)
集成/E2E测试 → 安全审计 → 性能优化 → 文档编写 → 发布
产出:测试报告 + 安全审计 + 完整文档
“`
半小时的前期调研,可以避免后续数天的返工。——CSDN(进击的阿三姐,2026-03-30)
为什么前期更重要了? 因为AI执行速度极快,如果你方向搞错了,它会在错误的方向上飞速跑很远。传统开发中,手工编码慢,问题暴露得也慢;AI编码快,问题暴露得也快——但修复成本也更高,因为你可能在错误基础上又堆了几百行代码。
“`
Level 1: 项目级(Mega Plan)
“做一个任务管理SaaS系统”
↓ 拆解为
认证模块 + API模块 + 数据库模块 + 前端UI模块
Level 2: 功能级(Feature)
“认证模块”
↓ 拆解为
JWT认证 + 密码哈希 + Session管理 + OAuth登录
Level 3: 任务级(Story)
“JWT认证”
↓ 拆解为
[ ] 写JWT中间件(30分钟)
[ ] 写token刷新逻辑(45分钟)
[ ] 写单元测试(30分钟)
[ ] 更新API文档(15分钟)
“`
– Level 1 → 整体架构文档
– Level 2 → 每个模块的PRD + Design Doc
– Level 3 → 具体可执行任务(每个1-4小时)
不同层级可以选不同模型:架构理解用最强模型(Opus/GPT-5级别),执行编码用快模型(Haiku/DeepSeek级别),省钱又高效。
一位使用AI编程一年的开发者(掘金,NO只是大东,2025-10-17)总结:
每次开新会话前,必须将三个核心文档喂给AI:PRD.md(产品需求文档)、技术文档.md(技术选型说明)、Task.md(任务清单,实时更新)。任务要足够细,每个任务最好在1-2小时内完成。 越细越好。
– ❌ “帮我写整个后端”(太模糊)
– ✅ “实现用户注册接口,包含输入验证(Zod schema)、密码哈希(bcrypt)和JWT返回。参考/docs/api-spec.md中的认证模块设计。”
你的团队现在拆任务有多细?每次给AI的指令大概多少字?
“`
Step 1(1小时):基础CRUD + 权限检查
→ AI写代码 → 跑测试 → 确认通过
Step 2(1.5小时):前端页面 + 表单验证
→ 新会话 → AI写页面 → 跑测试 → 预览效果
Step 3(1小时):高级功能(优先级、截止日期、标签)
→ 新会话 → AI写代码 → 跑测试 → 确认通过
“`
核心原则:一个会话只做一件事。 设计文档写入文件,不依赖AI的对话记忆。因为上下文压缩会丢失细节,但文件不会。这就是”Durable Context”思想——文档是项目的持久化记忆。
规则和规范写入项目的规则文件(CLAUDE.md/CODEBUDDY.md),每次会话自动加载。篇幅控制在200行以内,超过200行AI开始忽略后面的内容。
“`
传统串行:模块A(4h) → 模块B(4h) → 模块C(4h) = 12小时
并行开发:
Wave 1: [模块A] + [模块B] + [模块C] ← 同时进行
Wave 2: [集成测试]
Wave 3: [代码审查]
= 约4-5小时
“`
判断能否并行的原则:修改不同文件→可以并行;有数据依赖→必须串行。
答案是TDD(测试驱动开发)。在AI编程场景下,TDD的效果被放大了数倍:
| 开发方式 |
首次通过率 |
需要修改轮数 |
最终质量 |
| 无测试直接让AI写 |
30-40% |
4-6轮 |
~70% |
| 先写测试再让AI实现 |
70-80% |
1-2轮 |
~95% |
| TDD方式(红-绿-重构) |
85-95% |
0-1轮 |
~98% |
来源:TDD与Claude Code测试驱动开发(CSDN,Robot侠,2026-01-21)。*注:此数据来自社区实践经验汇总,非受控实验结果,实际效果因项目和AI工具而异。*
1. 🔴 Red(你来做):先写测试用例,覆盖正常输入、边界情况、异常场景。用参数化测试覆盖大量输入组合。
2. 🟢 Green(AI来做):”我定义了[功能名]的完整测试套件,请实现使所有测试都通过的代码。” AI基于测试约束生成最简实现。
3. 🔵 Refactor(协作):所有测试通过后,让AI优化代码结构、可读性、性能。测试套件是重构的安全网。
⚠️ 覆盖率陷阱:高覆盖率 ≠ 高质量。断言准确性比覆盖率更重要。
1. 40-20-40法则——前期设计和后期测试各占40%,编码只占20%
2. 三层分解——项目级→功能级→任务级,每个任务1-2小时
3. 会话隔离——一个会话只做一件事,设计文档写入文件
4. TDD驱动——先写测试再让AI实现,首次通过率85-95%
下一步:明天发布第(二)篇——从0到上线的完整流程,包括项目初始化、Monorepo分层配置、国内AI编程工具选择指南。关注公众号,别错过。
*数据截至2026年4月。AI工具行业变化快,部分数据可能已有更新。*
来源:
– GitHub 2025开发者调查报告
– AI任务分解全景(lukaxiya.github.io,2026-03-22)
– 一年AI编程实战(掘金,NO只是大东,2025-10-17)
– Claude Code项目管理指南(CSDN,进击的阿三姐,2026-03-30)
– TDD与Claude Code(CSDN,Robot侠,2026-01-21)
– Claude Code手册第十九章(joeyyu23.github.io,2026-03-31)