乐于分享
好东西不私藏

AI编程做大型项目(一):会拆分的人+AI=10倍效率

AI编程做大型项目(一):会拆分的人+AI=10倍效率

AI编程做大型项目(一):会拆分的人+AI=10倍效率
本系列共5篇,每天一篇:
(一)会拆分的人+AI=10倍效率 ← 你在这里
– (二)从0到上线的完整流程
– (三)七道质量防线+人怎么把关
– (四)多Agent协作+三条实战路径
– (番外)为什么有了AI,你反而更需要软件工程

你是不是也遇到过这种事
用AI写Demo,10分钟搞定,完美运行。
但把AI放到一个真正的大型项目里——前后端分离、上万行代码、多个模块协作——结果就是:改了A模块,B模块就报错;修了B模块,C模块的测试又挂了。改了三天,bug越改越多。
这不是个别现象。GitHub 2025年开发者调查显示,开发者每周花8.5小时在代码审查上,其中40%的时间在修复AI生成但没检查的问题。
不是模型不行,是”拆法”不行。
一个开发了两年AI编程的开发者总结了这样一句话:
会拆分的人 + AI = 10倍效率,不会拆分的人 + AI = 10倍混乱。
本文讨论的”大型项目”标准:前后端分离、代码量过万行、涉及多个功能模块、需要长期维护、有生产级质量要求。

一、40-20-40法则:AI编程的时间分配
多数人用AI编程时,过度聚焦编码环节——把AI当打字机,忽略了前期的设计和后期的验证。
传统软件工程有个经典规则:40%设计 — 20%编码 — 40%测试。AI编程不仅没过时,反而更重要了。
“`
40%时间 → 前期(写代码前)
   需求分析 → 可行性验证 → 技术选型 → 数据模型设计
   → API契约设计 → 架构设计 → 风险识别 → 计划拆分
   产出:/docs目录下的完整设计文档
20%时间 → 中期(编码阶段)
   功能开发(TDD模式)→ 代码自检 → 规范提交
   产出:功能代码 + 测试
40%时间 → 后期(测试上线)
   集成/E2E测试 → 安全审计 → 性能优化 → 文档编写 → 发布
   产出:测试报告 + 安全审计 + 完整文档
“`
半小时的前期调研,可以避免后续数天的返工。——CSDN(进击的阿三姐,2026-03-30)
为什么前期更重要了? 因为AI执行速度极快,如果你方向搞错了,它会在错误的方向上飞速跑很远。传统开发中,手工编码慢,问题暴露得也慢;AI编码快,问题暴露得也快——但修复成本也更高,因为你可能在错误基础上又堆了几百行代码。

二、任务拆分:AI编程的真正核心
三层分解模型
不是让AI一次搞定所有事,而是分三层逐级细化:
“`
Level 1: 项目级(Mega Plan)
   “做一个任务管理SaaS系统”
   ↓ 拆解为
   认证模块 + API模块 + 数据库模块 + 前端UI模块
Level 2: 功能级(Feature)
   “认证模块”
   ↓ 拆解为
   JWT认证 + 密码哈希 + Session管理 + OAuth登录
Level 3: 任务级(Story)
   “JWT认证”
   ↓ 拆解为
   [ ] 写JWT中间件(30分钟)
   [ ] 写token刷新逻辑(45分钟)
   [ ] 写单元测试(30分钟)
   [ ] 更新API文档(15分钟)
“`
每层有明确产出:
– Level 1 → 整体架构文档
– Level 2 → 每个模块的PRD + Design Doc
– Level 3 → 具体可执行任务(每个1-4小时)
不同层级可以选不同模型:架构理解用最强模型(Opus/GPT-5级别),执行编码用快模型(Haiku/DeepSeek级别),省钱又高效。
每个任务需要多细?
一位使用AI编程一年的开发者(掘金,NO只是大东,2025-10-17)总结:
每次开新会话前,必须将三个核心文档喂给AI:PRD.md(产品需求文档)、技术文档.md(技术选型说明)、Task.md(任务清单,实时更新)。任务要足够细,每个任务最好在1-2小时内完成。 越细越好。
指令对比
– ❌ “帮我写整个后端”(太模糊)
– ✅ “实现用户注册接口,包含输入验证(Zod schema)、密码哈希(bcrypt)和JWT返回。参考/docs/api-spec.md中的认证模块设计。”
你的团队现在拆任务有多细?每次给AI的指令大概多少字?
增量式开发
每个Step独立会话,做完清空上下文:
“`
Step 1(1小时):基础CRUD + 权限检查
   → AI写代码 → 跑测试 → 确认通过
Step 2(1.5小时):前端页面 + 表单验证
   → 新会话 → AI写页面 → 跑测试 → 预览效果
Step 3(1小时):高级功能(优先级、截止日期、标签)
   → 新会话 → AI写代码 → 跑测试 → 确认通过
“`
核心原则:一个会话只做一件事。 设计文档写入文件,不依赖AI的对话记忆。因为上下文压缩会丢失细节,但文件不会。这就是”Durable Context”思想——文档是项目的持久化记忆。
规则和规范写入项目的规则文件(CLAUDE.md/CODEBUDDY.md),每次会话自动加载。篇幅控制在200行以内,超过200行AI开始忽略后面的内容。
并行开发
当项目有多个相互独立的模块时,可以并行推进:
“`
传统串行:模块A(4h) → 模块B(4h) → 模块C(4h) = 12小时
并行开发:
 Wave 1: [模块A] + [模块B] + [模块C]  ← 同时进行
 Wave 2: [集成测试]
 Wave 3: [代码审查]
 = 约4-5小时
“`
判断能否并行的原则:修改不同文件→可以并行;有数据依赖→必须串行。

三、TDD:编码阶段的核心武器
任务拆好后,怎么确保AI写出来的代码是对的?
答案是TDD(测试驱动开发)。在AI编程场景下,TDD的效果被放大了数倍:
开发方式 首次通过率 需要修改轮数 最终质量
无测试直接让AI写 30-40% 4-6轮 ~70%
先写测试再让AI实现 70-80% 1-2轮 ~95%
TDD方式(红-绿-重构) 85-95% 0-1轮 ~98%
来源:TDD与Claude Code测试驱动开发(CSDN,Robot侠,2026-01-21)。*注:此数据来自社区实践经验汇总,非受控实验结果,实际效果因项目和AI工具而异。*
TDD在AI编程中的具体操作:
1. 🔴 Red(你来做):先写测试用例,覆盖正常输入、边界情况、异常场景。用参数化测试覆盖大量输入组合。
2. 🟢 Green(AI来做):”我定义了[功能名]的完整测试套件,请实现使所有测试都通过的代码。” AI基于测试约束生成最简实现。
3. 🔵 Refactor(协作):所有测试通过后,让AI优化代码结构、可读性、性能。测试套件是重构的安全网。
⚠️ 覆盖率陷阱:高覆盖率 ≠ 高质量。断言准确性比覆盖率更重要。

小结
大型项目AI编程的核心不是”用哪个模型”,而是:
1. 40-20-40法则——前期设计和后期测试各占40%,编码只占20%
2. 三层分解——项目级→功能级→任务级,每个任务1-2小时
3. 会话隔离——一个会话只做一件事,设计文档写入文件
4. TDD驱动——先写测试再让AI实现,首次通过率85-95%
下一步:明天发布第(二)篇——从0到上线的完整流程,包括项目初始化、Monorepo分层配置、国内AI编程工具选择指南。关注公众号,别错过。

*数据截至2026年4月。AI工具行业变化快,部分数据可能已有更新。*
来源
– GitHub 2025开发者调查报告
– AI任务分解全景(lukaxiya.github.io,2026-03-22)
– 一年AI编程实战(掘金,NO只是大东,2025-10-17)
– Claude Code项目管理指南(CSDN,进击的阿三姐,2026-03-30)
– TDD与Claude Code(CSDN,Robot侠,2026-01-21)
– Claude Code手册第十九章(joeyyu23.github.io,2026-03-31)