前两天跟一群创业者、技术负责人、产品经理坐在一起,聊了三个多小时的"养虾" 。没有 PPT 式的官方叙事,全是真刀真枪的实践。有人春节后全员转向 AI 研发,有人一个人搭了相当于 10 人团队的 AI 协作系统,有人用 $10 一晚上完成了"不可能自动化"的测试用例迁移。大家各自分享了自己的实践和观点,以下是我觉得感触最深的三点。
一、灵魂(Soul)是驯服 AI 的关键
Soul 的本质
Soul 不是人设,不是角色扮演,不是一段简单的 prompt。Soul 是一套行为操作系统。它定义的不是 AI"是谁",而是 AI"怎样工作", 遇到问题先调查还是先动手,不确定的事情是猜还是问,方向错了是将错就错还是立即纠正。
为什么需要 Soul
模型的能力已经远超大多数人的使用深度。大部分人用不好 AI,不是模型不行,是没有告诉它该怎么工作。
这跟人一样。一个刚入职的优秀员工,能力没问题,但他不了解组织的做事方式——什么时候该主动推进,什么时候该先确认;遇到模糊需求是自己判断还是追问;出了问题是先修还是先报告。Soul 就是 AI 的 onboarding。你不是在修 bug,你是在告诉它:在我们这个组织里,做事的方式是什么。
怎么写 Soul
不是只有龙虾才能有Soul。沙龙里有小伙伴分享了他在GitHub 上的一个开源项目 claude-soul(github.com/MidnightV1/claude-soul),把 Soul 的写法拆得很清楚。只有两个文件:CLAUDE.md 定义 AI 怎么工作——从身份定位到价值观到工作习惯到红线,越往上越抽象,越往下越具体;COGNITION.md 定义 AI 怎么跟你配合——从互动中默默观察你的决策模式、思维节奏、情感信号,用得越久越懂你。没有框架,没有依赖,两个 markdown 文件就够了。
我自己也试了一下,体感确实不一样。写了 Soul 之后,Claude code的行为稳定了很多——它跨会话记住了你们的协作方式,不用每次都从零磨合。就像一个共事了半年的同事,你说一句他就知道该怎么动,不用每次开会都重新对齐。
刚好解决了我之前的一个困惑,为什么写了很多 prompt 还是觉得 AI 不好用?因为大多数人在用规则解决价值观的问题。
"读完代码再改"、"看完日志再判断"、"查完文档再回答"——这些都是规则。你能想到的场景,规则能覆盖;你想不到的场景,规则就失效了。而"先调查再行动"是价值观,价值观是"安全第一",五个字,自动泛化到所有场景。Soul 的核心是价值观,规则只是底线兜底。大多数人反过来了——全在写规则,没有价值观。
这背后有一个更大的认知转变——我们跟 AI 的关系,正在从"使用工具"变成"管理团队"。管理的核心从来不是写更详细的操作手册,而是让对方内化一套做事的方式。Soul 做的就是这件事。
而且 Soul 的价值不止于驯服一个 AI。当团队里每个人都有自己的 AI 助手时,Soul 就变成了组织层面的东西——它是统一思想的手段。有人让所有机器人共享同一个根级 Soul,确保不管谁的 AI 在干活,做事方式和判断标准都是一致的。Soul 对一个人是 onboarding,对一个组织是文化。
二、Coding 不值钱了,构建信号闭环才是核心能力
为什么要构建信号闭环
顶级模型写的代码已经比大多数人好了,写代码本身不再是稀缺能力。那什么是稀缺的?确保 AI 持续、稳定、正确地工作的能力。
AI 不是不会出错。它写的每一行代码可能都能跑,但整体方向可能是偏的,它对业务的理解可能是错的。而且它是 7×24 小时在干活的,你不可能时刻盯着。所以你需要一套机制——能自动采集 AI 的判断信号,自动校验硬指标,自动分级问题,只有真正需要人拍板的才推到你面前。这就是闭环。
怎么设计闭环
核心就三件事:第一,让 AI 把判断过程摊开,而不是只给最终结果;第二,能让机器校验的硬信号(测试过没过、有没有报错)交给自动化,人只看机器判断不了的软信号(方向对不对、体验好不好);第三,让这套校验按节奏自动跑——每天扫日志自修复,每次任务过 checklist 防假完成,每周校准 AI 自身的能力和协作模式。
举个例子:内容审核场景,不要告诉 AI"判断这个内容能不能过", 因为它给你一个"能/不能",你没法校验它漏了什么。而是让它针对每个维度输出信号——"是否有性暗示"、"是否涉及未成年"、"是否有暴力倾向",每个信号独立校验,你的业务规则决定放行还是过滤。开发场景也一样:让 AI 输出改了什么、为什么改、哪些地方它确定、哪些地方它在猜。
一个实战案例
$10 一晚上,干了 QA 团队干不了的事
一家公司产品有几千个测试 case,其中几百个"很难自动化"的手动 case——QA 团队公认搞不定。让 AI 扫一遍代码库和所有 case,先输出汇总分析:功能分布、模块覆盖度、哪些模块需要加强。专业 QA 看完评价已经非常专业。然后让它转化手动 case,跑了一通宵花了 $10,三天三夜花了不到 $200,98% 转完。它不光干了你的工作,它干了你想干但没有能力干的工作。
这个案例的关键不是 AI 多厉害,而是闭环思路:AI 先输出汇总分析(信号),专业 QA 校验分析质量(人判断),确认没问题后再让 AI 执行转化,最后跑测试验证结果(自动校验)。不是让 AI 替代人做判断,而是让 AI 输出信号和中间结果,人基于信号做决策。
闭环设计最难的不是技术实现,是对业务的理解——你得想清楚这个业务的关键信号到底是什么、怎么判断信号对不对、信号之间的关系是什么。然后把这些理解转化成一套可运行的闭环。这个转化能力才是核心竞争力,而且闭环本身也需要迭代——你设计的信号维度对不对?颗粒度够不够?闭环不是一次性设计出来的,闭环本身也在闭环里进化。
三、分工壁垒打破之后,组织会发生什么
一家软件公司,春节后全员自发转向 AI 开发,前后端 QA 基本不分了,一个人从产品到前端后端测试文档全部打穿,全闭环交付。协作开会反而变少了。
另一边,一个产品经理在飞书上搭了一套 Claude Code 协作系统(github.com/MidnightV1/Claude-Code-Feishu)。从需求讨论到方案设计到代码开发到测试部署,全程通过飞书驱动。AI 写代码、写文档、写 skill,产品经理只做两件事:在文档里评论纠偏,说一句"执行"。一行代码都没看过。
当一个人能打穿全栈的时候,传统的按技术栈分工就失去意义了。分工正在从"你做前端我做后端"变成"你负责 0 到 1 验证,我负责规模化", 按阶段切,不按技术切。
岗位边界消失,但能力要求更高了。你要理解完整业务链路,才能给 AI 下正确的指令。大多数出错不是 AI 能力不够,是人的指令太模糊.。好的任务要有背景、目标、完结条件。文档能力正在成为公司里的核心能力。
筛选标准变了。技术栈不再是门槛,好奇心和表达力才是。好奇心决定你愿不愿意探索新的协作方式,表达力决定你能不能把模糊的想法变成 AI 能执行的指令。
个体价值被重新定义。有个 CEO 说了句很狠的话:我让 AI 扫一遍公司所有系统,谁在工作中没有留下用户相关的 context,就是在摸鱼。所以,价值不是你干了多少活,而是你干的活有没有变成组织的资产。
沙龙里聊到这些的时候,情绪是兴奋的——效率提升十倍、一个人顶一个团队。但有一个不舒服的问题被回避了:如果一个人 + AI 能做原来一个团队的事,那剩下的人去哪?我认为真正的变化不是"谁被淘汰",而是"什么能力变得值钱"。这不是淘汰,是价值坐标系在旋转。坐标系转了之后,有些人从边缘到了中心,有些人从中心到了边缘。
写在最后
回顾整场讨论,三个话题——Soul、信号闭环、组织变革,其实在讲同一件事:人和 AI 的关系,正在从"使用工具"变成"设计系统"。
Soul 是在设计行为系统,我们不再逐个写 prompt,而是设计一套让 AI 自主运转的行为框架。信号闭环是在设计质量系统,我们不再逐行 review 代码,而是设计一套让质量自动收敛的机制。组织变革是在设计协作系统,我们不再逐人分配任务,而是设计一套让团队自组织的架构。
从"做事"转向"设计做事的方式"。不是你能用 AI 做多少事,而是你能设计多好的系统,让 AI 自己把事做好。
从使用者到设计者。这才是真正的分水岭。
夜雨聆风