乐于分享
好东西不私藏

苹果把Claude.md打包进了自家App:这可能是今年最讽刺的"AI越狱"

苹果把Claude.md打包进了自家App:这可能是今年最讽刺的"AI越狱"

2026年5月2日,有人在苹果的某个官方App的代码包里,发现了一个不该出现的东西。

一个README文件,后缀是.md。文件名是Claude.md。

如果你不知道这个名字意味着什么,我简单解释一下:Claude.md是Anthropic公司出品的AI助手Claude的操作指南——一个告诉AI”你是谁、你擅长什么、你应该怎么回答”的提示词配置文件。这个文件会告诉Claude如何扮演某个角色、如何处理特定类型的任务、如何保持回答的一致性和专业性。

这个文件出现在苹果的官方App里,意味着:苹果的某个开发团队,在用Claude写代码。而且不是随便用用——是在建立一套系统性的AI工作流。

讽刺的地方来了:苹果是全球最积极推动”AI监管”的大厂之一。它在公开场合说得最多的一句话是”AI需要被管控”。它发过的白皮书、做过的演讲、招过的监管岗位——加起来能堆满一整层办公楼。这些政策文件里写着”AI可能带来的风险”、”需要建立AI伦理框架”、”行业应该共同制定安全标准”。

然后它的工程师,在用竞争对手的AI工具写代码。


一个越来越普遍的双标

如果你以为这是苹果独有的问题,你可能低估了这件事的普遍性。

在过去两年里,我接触过的大量科技公司——包括那些在公开场合高呼”AI威胁论”的企业——内部都在重度使用AI工具写代码、审代码、做文档、做分析。

有一家全球排名前十的科技公司,在2025年初发布了一份关于”AI对就业影响”的重量级报告,结论是”未来五年,AI将取代30%的白领工作”。这份报告引发了广泛讨论,被引用了上千次。

同一年,这家公司悄悄招聘了超过两百名”AI工程师”,他们的工作是”用AI工具优化内部开发流程”。这些岗位的描述里,有一个关键词出现的频率极高:Prompt Engineering——提示词工程。

另一家以”AI伦理”著称的老牌科技公司,在它的内部Wiki里,有一个页面叫”AI工具使用指南”。这个页面的内容是:告诉员工如何在工作中使用Claude、GPT和其他AI工具,如何设计提示词来得到更好的输出,如何用AI来”提高个人效率”。

这些公司的高管,在各种论坛上反复说”AI需要监管”。这些公司的工程师,在用AI工具提高效率。这两件事之间,存在一个巨大的鸿沟——但这个鸿沟往往被”AI伦理”的话语体系遮盖了。

有些公司甚至有自己的”AI使用规范”,但那个规范的内容往往是”我们建议用公司认可的AI工具”,而不是”我们建议少用AI工具”。

换句话说,规范的是”用哪个AI”,不是”用不用”。

这个区别很微妙,但非常重要。

当一家公司的官方政策是”我们可以用AI,但要用公司认可的AI”的时候,它实际上是在承认:AI工具是必要的,没有AI,我们无法保持竞争力。

那些”AI威胁论”的演讲、那些”我们需要监管AI”的报告、那些”AI会取代人类工作”的警告——在这个语境下,它们的真实含义变成了:AI会取代”别人”的工作,而我们,要确保自己站在不被取代的那一边。

这不是对AI的警惕,这是对竞争者的警惕。


“Vibe Coding”不是借口

苹果把这件事解释为”Vibe Coding”——意思是现在的程序员不再逐行写代码,而是描述自己要什么,让AI生成代码,然后调整。

这个说法当然有它的真实性。在2026年,确实有大量程序员在用这种方式工作。AI生成代码的速度远快于手动编写,而且在很多标准化的场景下,AI生成的代码质量并不比人工代码差。从效率的角度看,让AI写代码是一件合理的事情——它快、准确,而且不会因为疲劳而出错。

但这个解释有一个漏洞:Vibe Coding是一个工作方式,它不能解释为什么用的是竞争对手的AI。

如果苹果真的相信”管控AI”,它应该做的是:要么自己训练一个足够好的AI工具给内部使用,要么明文禁止工程师在工作中使用外部AI工具。

它两个都没做。

它既没有训练自己的编程AI(在足够规模上能与Claude和GPT竞争的那种),也没有禁止员工使用外部AI。它所做的,只是在公开场合说”AI需要监管”,然后在私底下让自己的工程师用Claude写代码。

这不是Vibe Coding,这是双标。

而且是那种被抓住之后很难辩解的双标——因为Claude.md这个文件名,本身就说明这不是”偶尔用用”,而是”系统性使用”。一个愿意花时间配置Claude提示词模板的团队,是在认真对待AI工具的团队,是把AI融入日常工作流的团队。

这种团队的存在,和”管控AI”的企业立场之间,存在不可调和的矛盾。


大厂的双标背后有一个结构性问题

要理解这个双标,我们需要问一个更根本的问题:为什么这些大厂一边说”管控AI”,一边在重度使用AI?

答案是:因为”管控AI”和”使用AI”是两件完全不同的事情。

“管控AI”,是向外说的。它的对象是监管机构、是公众、是你的竞争对手——你告诉他们AI是危险的,你需要被允许来参与制定规则。”管控AI”本质上是一种商业博弈策略:当一项技术即将成为必需品的时候,谁有能力定义它的规则,谁就拥有最大的竞争优势。

“使用AI”,是向内做的。它的对象是效率、是成本、是竞争力——你必须用最有效的工具来保持竞争优势,否则你的竞争对手会用,然后超过你。在2026年的软件开发市场,用AI工具写代码已经不是”加分项”,而是”必选项”——任何不这么做的团队,在效率上都会被竞争对手碾压。

这两件事之间没有矛盾,因为它们的受众不同。

对监管者说”AI危险”,是在争取博弈空间。对工程师说”用Claude”,是在保持实际效率。

前者是战略,后者是战术。战略和战术不需要一致——只要你知道自己在做什么,并且能够承担说一套做一套的舆论风险。

但问题在于,当这种双标被发现的时候,舆论风险往往会爆发。而苹果这次被发现的工具,恰好是Claude.md——一个专门用来优化AI输出的提示词模板,而不是简单的”用AI写代码”。

这让双标的程度更深了一层。


这次不一样的地方

苹果这次事件之所以引发关注,不只是因为”苹果用Claude”这个事实本身,而是因为这件事发生在Claude.md这个文件名上。

Claude.md是一个提示词配置文件,它的目的是告诉AI”你是谁”。当你把一个”告诉Claude它是谁”的文件打包进苹果的App,这意味着那个App的代码,有相当一部分是用”假装自己是Claude”的方式生成的。

换句话说,苹果的工程师不只是”用Claude写代码”,他们是在”用一个专门为Claude设计的提示词模板”来生成代码。这个提示词模板是用来优化Claude输出质量的——也就是说,这些工程师不是在随便用AI,他们是在系统性地、规模化地使用AI。

这是一个程度的问题。

如果你只是偶尔让AI帮你写一段代码,这叫”使用AI工具”。如果你的团队在内部建立了一整套基于AI的工作流,并且系统性地用提示词工程来优化AI的输出,这叫”AI驱动开发”。

苹果这次暴露的,是后者。

而且,如果你仔细看这份Claude.md文件的内容,你会发现它描述的是”如何让Claude扮演一个高级iOS工程师”,给出的提示词包含了角色设定、行为规范、技术风格偏好——这意味着这个团队不只是在用AI,他们已经建立了一套成熟的AI编程工作流,并且将这套工作流融入了日常开发流程。

这个发现,和”苹果呼吁管控AI”放在一起,构成了一个极有讽刺意味的画面:一个在公开场合呼吁AI监管的公司,内部已经系统性地把AI融入了自己的开发体系,而且用的是竞争对手的工具。


我们应该怎么看

对于苹果来说,这件事当然是一个公关危机——它的AI政策被撕开了一个口子。

但在更深层次上,这件事反映的不是苹果的虚伪,而是AI时代的一个结构性现实:在2026年,AI工具已经成为了科技公司竞争力的基础设施之一。没有任何一家有竞争力的公司,会真的在内部禁用AI工具——除非它能找到同等效率的替代方案。

那些公开说”AI危险”的大厂,它们的真实立场往往不是”AI应该被禁用”,而是”AI应该被我们控制”。

前者是反技术的,后者是商业的。

理解了这一点,你就理解了为什么有那么多”AI监管”的演讲听起来那么空洞——因为那些演讲者的真实目的,从来都不是限制AI的发展,而是确保自己在AI时代依然站在食物链的顶端。

所以,当你看到一家大公司在公开场合警告”AI危险”的时候,问自己一个问题:它的工程师在用什么工具写代码?

答案往往能让你看清那家公司真实立场。

而苹果这次用Claude.md告诉我们的,恰恰就是这件事:一家嘴上说管控AI的公司,内部系统性地在用竞争对手的AI工具做开发,而且已经把这套工具流程固化成了一套标准的工作流。

这也许才是AI时代最讽刺的真相——那些最积极呼吁管控AI的人,往往也是最依赖AI的人。不是因为他们不相信AI的风险,而是因为他们太相信AI的价值,以至于他们无法承担不参与其中的代价。

管控AI的演讲,和Claude.md的开发文件,在同一栋办公楼里同时存在——这就是AI时代大厂的真实面目。