苹果官方App里藏着Claude.md:我照着这份「泄露文档」改进了团队的AI协作SOP
苹果官方App里藏着Claude.md:我照着这份「泄露文档」改进了团队的AI协作SOP
苹果工程师把内部AI协作配置文件(Claude.md)打包进了官方App,意外泄露了大厂如何用AI做Vibe Coding。我第一时间扒下来研究了两小时,发现里面藏着的不是什么高深技术,而是一套极其务实的AI协作规则——然后我照着这套逻辑,给我们团队做了一份AI协作SOP,现在每周至少省8小时会议时间。
这份泄露文档只有73行,但信息密度惊人。苹果工程师在里面写明了怎么让Claude理解项目上下文、怎么处理多轮对话、怎么做代码审查,每条规则都直接指向一个真实痛点。
泄露文档里的3个关键配置,拆开看都是狠招
第一个:上下文管理用「分层索引」,不是全塞进去
Claude.md里写了一个规则:项目文档分三层——核心架构文档(必读)、模块说明文档(按需)、历史讨论记录(检索)。每次对话前,工程师只把核心层+当前相关模块喂给AI,不是把整个代码库都扔进去。
我之前让AI帮我改需求文档,直接把20页PRD全复制进去,结果AI给的建议全是表面功夫。看到苹果这个做法后,我把文档拆成「产品定位(1页)+ 核心功能清单(2页)+ 具体交互流程(按需)」,现在AI能直接指出哪个功能和定位冲突,从泛泛而谈变成了真能用的意见。
第二个:多轮对话要「显式状态确认」
文档里有一段让我印象深刻:每轮对话结束时,工程师会让Claude输出一个「当前理解状态」——包括已确定的需求、待澄清的点、下一步行动。这不是为了礼貌,是防止对话串台。
我试了一次,跟Claude聊活动策划,聊到第五轮时我说「改一下时间」,它居然把之前确定的场地也改了。后来我加了这个规则:每轮结束让AI复述「目前确定的3个要素 + 这轮修改的1个要素」,再也没出过理解偏差。从7轮反复改到3轮定稿,省了40分钟。
第三个:代码审查分「功能性检查」和「风格性建议」
Claude.md里明确写了:让AI先做功能性检查(逻辑漏洞、边界条件、性能瓶颈),通过后再看风格性建议(命名规范、注释完整度)。两个阶段分开,不混在一起讲。
我们团队不写代码,但这个逻辑完全可以迁移。现在我让AI审合同,第一遍只看「条款是否有漏洞、数字是否对得上、责任归属是否清晰」,第二遍再看「措辞是否专业、格式是否统一」。之前AI一口气给20条建议,我根本分不清哪些必须改、哪些可以忽略,现在一目了然。
— — —
照着这套逻辑,我做了一份非技术团队也能用的AI协作文档
苹果那份文档是给开发者看的,但里面的底层逻辑可以抽出来。我花了一个周末,做了一份我们团队用的AI协作SOP,核心就3页纸。
第一页:团队知识库分层清单
列出哪些文档是「每次对话都要给AI看的」(我们是产品定位、目标用户画像、核心数据指标),哪些是「按需提供的」(具体功能需求、竞品分析、用户反馈),哪些是「只在特定场景用的」(历史会议纪要、过往方案)。
这个清单做完后,我发现之前跟AI对话效率低,就是因为每次都在重新解释背景。现在新人用AI写周报,我直接发他这份清单:「把第一层的3个文档复制给AI,然后说你这周做了什么」,出来的周报质量直接提升一个档次,不用我再逐句改。
第二页:多轮对话检查点模板
抄了苹果那个「状态确认」逻辑,做了个通用模板:每轮对话结束时,让AI输出「本轮确定的内容 + 本轮修改的内容 + 下一轮要解决的问题」。我把这个模板贴在团队协作文档里,要求所有人跟AI聊超过3轮的,必须用这个格式。
举个例子:我们运营同事用AI写活动方案,之前经常聊到最后自己都忘了改了什么。现在每轮让AI总结,她发现第三轮提的「增加抽奖环节」和第一轮定的「低成本获客」冲突了,立刻调整方向,省了两天返工时间。
第三页:AI审核两阶段话术库
把「功能性检查」和「风格性建议」分开,做成了话术模板。比如审活动方案,第一阶段问AI:「这个方案在预算、时间节点、人力配置上有没有明显漏洞?只说问题,不说优化建议。」第二阶段再问:「文案表达、视觉呈现、用户体验上有哪些可以优化的地方?」
这个改变直接解决了一个老大难问题:之前AI给的反馈太杂,我们经常纠结「这条建议到底要不要采纳」。现在第一阶段的问题必须解决,第二阶段的建议看情况,决策效率提升了至少50%。
— — —
AI原生协作和传统协作文档,核心差在2个地方
做完这份SOP后,我对比了一下我们之前的团队协作文档,发现AI原生协作和传统协作的思路完全不同。
差异一:从「流程规范」变成「信息分层」
传统协作文档都在写「谁在什么时候做什么」,比如「产品经理周一提交需求、开发周三评审、周五排期」。但AI协作文档关注的是「什么信息在什么时候给AI」——核心信息永远在场,细节信息按需调用,历史信息建立索引。
这个差异让我意识到,用AI不是把人的工作交给AI做,而是重新定义什么信息该在什么时候出现。我们之前开周会,所有人都要听完所有项目进展,现在改成「AI整理各项目周报+按需深入讨论」,会议时间从2小时压缩到45分钟。
差异二:从「结果交付」变成「过程可追溯」
传统协作强调最终输出——「这个方案行不行」。AI协作必须强调推导过程——「AI基于哪些信息得出这个结论、中间修改了几次、每次修改的原因是什么」。苹果那份Claude.md里,每个配置都要求工程师记录「为什么这么设置」,不是直接给个结果。
我在团队SOP里加了一条规则:用AI生成的任何交付物(方案、文档、代码),必须附上「对话记录摘要」——包括给了AI什么背景信息、AI提了哪些问题、最终采纳了哪些建议。这个规则刚开始大家觉得麻烦,两周后发现好处:出了问题能立刻追溯到是信息缺失还是AI理解偏差,不用再甩锅「AI不靠谱」。
— — —
苹果这次泄露,意外让我们看到了大厂用AI的真实姿势——不是把AI当万能助手,而是当一个需要精确喂养的协作伙伴。那份73行的Claude.md,本质上是一份「如何跟AI说人话」的翻译手册。
我现在每次跟AI对话前都会问自己三个问题:我给的信息分层了吗?这轮对话的目标明确吗?AI的输出我能追溯到推导过程吗?这三个问题解决了,AI就从「偶尔有用」变成了「稳定靠谱」。
你们团队现在用AI协作遇到的最大问题是什么?是AI理解不了需求,还是输出质量不稳定,还是团队成员用AI的水平参差不齐?评论区说说,我看能不能从苹果那份文档里再扒点经验出来。
夜雨聆风