乐于分享
好东西不私藏

Grok 差点被苹果踢出 App Store,但最该慌的其实不是马斯克

Grok 差点被苹果踢出 App Store,但最该慌的其实不是马斯克

Grok 差点被苹果踢出 App Store但最该慌的其实不是马斯克

#AI安全 · #平台治理 · #深度伪造  · #Grok · #XAI

Apple vs AI — 当科技巨头面对深度伪造的失控

NBC News 曝光了苹果今年 1 月发给 xAI 的内部信——要么整改深度伪造色情内容,要么 Grok 滚出 App Store。经过多轮拉扯后勉强过关。但安全研究人员测试发现,直到今天,Grok 仍然能轻松生成名人和普通人的色情 deepfake。这不是技术问题,这是一面照妖镜。

今年 1 月,苹果做了一件它很少做的事。

不是发布新产品,也不是收购公司。而是给埃隆·马斯克的公司写了一封信。

一封没有公开、没有新闻发布会、没有 Twitter 炒作的私信。

信的内容很简单:你们那个叫 Grok 的 AI 应用,再不解决非自愿色情 deepfake 的问题,就从 App Store 滚蛋。

这封信后来被 NBC News 拿到了。今天,The Verge 的记者 Robert Hart 把整个故事翻了个底朝天。

我看完之后最大的感受不是愤怒,也不是恐惧。

是一种荒诞感

图片来源:Unsplash

01

全世界最有钱的男人,被一家卖手机的公司训了

先理清时间线,这件事比大多数人以为的要复杂得多。

2026 年初

Grok 在 X 掀起 deepfake 海啸——输入照片,几秒出裸照

舆论爆发

国会议员施压、民间组织批评、青少年提起 CSAM 诉讼

苹果出手

幕后联系 X 和 Grok 团队,要求提交整改计划

注意,苹果的处理方式非常“苹果”——它没有公开发声明谴责,没有召开紧急发布会,而是在幕后同时联系了两个团队。

第一轮审核:X 过了,Grok 挂了

苹果审查后的结果很有意思。

X 平台被认为”基本解决了违规问题”。但 Grok 应用呢?”仍不合规”。

图片来源:Unsplash

你品品这个场景。X 和 Grok 本质上是同一个生态里的产品,用的是同一套底层模型,面对的是同一批用户。但苹果判定一个过了、另一个没过。这中间的灰色地带,够法律系的学生写三篇论文。

接下来就是多轮的幕后拉扯。xAI 团队提交修改方案,苹果审核,打回,再提交,再审核。来来回回好几次。

最终,苹果认定 Grok”已有显著改进”,批准了更新。整个过程,外界几乎一无所知。

—— 直到 NBC News 把那封信曝光

02 他们到底改了什么?

根据 The Verge 的调查,xAI 一共做了三件事。

整改一:付费墙

把 Grok 在 X 上的使用限制为付费订阅者才能用。逻辑是提高门槛,让随意的恶搞变难一点。

整改二:功能阻断

尝试在技术上阻止 Grok 生成”脱衣”女性的图像功能。具体怎么做的,xAI 没有公布细节。

整改三:照片屏蔽

推出照片编辑屏蔽功能,允许 X 用户设置阻止 Grok 编辑自己的照片。

听起来挺全面对吧?三管齐下,总该有点效果吧?

⚠️ 安全研究人员的测试结果:没用。或者说,效果约等于没有。   

多名网络安全专家告诉 The Verge,他们仍然能够用 Grok 生成名人和政治人物的高度露骨图像。The Verge 自己的记者也试了一下,成功生成了自己和同意参与的成年人的脱衣图像。NBC News 的独立测试也得到了类似的结论。

那些整改措施,只是让工具变得”稍微难访问了一点”,以及照片屏蔽功能”容易被规避”。

翻译成人话:你要是铁了心想干坏事,这些防线跟纸糊的没什么区别。

03 为什么这件事让我觉得荒诞

因为这里面涉及的三方,每一个都在扮演一个很微妙的角色。

🍎 苹果 — 守门人的双重标准

App Store 的守门人,一向以审核严格著称。但在面对”AI 生成大规模非自愿色情内容”这种事上,选择了私下写信、多次沟通、最终放行。整个过程没有一次公开声明,没有一次实质性的惩罚。要知道,苹果从 App Store 分成中赚取的收入里,有 X 和 Grok 的一份。

🤖 xAI / 马斯克 — 自由的鼓吹者变成了审查对象

拥有当今世界最激进的 AI 公司之一,结果自己的产品变成了最大规模的 deepfake 制造机之一。被苹果点名整改时,拿出的方案像是应付老师检查作业的中学生——表面功夫做得足,实际效果接近于零。更讽刺的是,马斯克平时在 X 上可是言论自由的最大鼓吹者。

👤 普通用户 — 真正的受害者

尤其是女性用户。你的照片可能被任何人拿来训练模型、生成 fake 裸照、传播到互联网的各个角落。而你对此几乎无能为力。去每一家 AI 公司一个个申请”别用我的脸”?还是指望苹果和谷歌帮你挡住所有恶意使用?哪一个都不靠谱。

图片来源:Unsplash

04 这不是一个技术问题

很多人看到这类新闻的第一反应是”技术上应该可以解决”。加个实名认证、加强内容过滤、用 AI 对抗 AI……

但这件事的核心矛盾根本不在技术层面。

     技术当然可以做到更好的检测和拦截。但只要底层模型具备生成图像的能力,就一定有人能找到绕过限制的方法。防御方必须堵住所有漏洞,攻击方只需要找到一个。

真正的问题在于:当一个工具的能力远远超过社会现有治理体系所能约束的范围时,我们该怎么办?

deepfake 不是新问题。早在 2017 年就有 Reddit 用户在用 DeepFaceLab 换脸了。但那时的门槛很高,需要显卡、需要技术能力、需要时间。现在呢?打开 Grok,上传一张照片,等几秒钟。

     门槛从”极客玩家”降到了”任何一个有手机的人”这不是量变,这是质变

当作恶的成本趋近于零,传统的威慑机制(法律追责、平台封号、社会声誉)就会失效。因为你不可能追查到每一个生成 deepfake 的人,尤其是在匿名账户和加密网络大行其道的今天。

       所以苹果的那封信,不管写得多么严肃本质上是一张创可贴贴在一个动脉出血的伤口上

更大的阴影

如果你觉得 deepfake 色情内容已经够糟糕了,那还有几个相关的进展可能会让你更不安。

🔑 同一时间轴上的三条线索:

!青少年诉讼:一组青少年向 xAI 提起了诉讼,指控 Grok 生成了以他们为素材的 CSAM 内容   

!欧洲调查:数据隐私监管机构已经开始关注 xAI 的数据收集行为——训练数据合法性在灰色地带   

!美国立法:多位参议员联名要求苹果和谷歌说明 AI 应用商店审核标准   

图片来源:Unsplash

所有这些线索指向同一个方向:Grok deepfake 事件不是孤例,它是 AI 能力失控的一个早期症状。

每一项技术在被滥用的初期,都会经历一个”震惊—讨论—无效整改—逐渐麻木”的循环。我们现在大概处于第二阶段和第三阶段之间。

回到那封信

苹果给 xAI 写的那封信,据 NBC News 报道,措辞相当正式。”create a plan to improve content moderation”——制定改进内容审核的计划。

     听起来很合理对吧?但你仔细想想,这句话的潜台词是什么?它的潜台词是:苹果并不打算自己解决这个问题。它把球踢回了开发者脚下。

这就是当前 AI 治理最真实的写照。没有人真的知道该怎么办。政府不知道,平台不知道,连开发这些模型的公司自己都不知道。

他们只知道一件事:不能什么都不做。因为那样的话,公众会愤怒,议员会质询,股价会波动。

于是就有了私下写信、有限整改、勉强过关、问题依旧的全套流程。一套看起来很忙碌、实际上什么都没有解决的流程。

✎ 写到最后

说实话,写这篇文章的过程中我的情绪一直在变化。

😱

震惊

Grok 居然能做到这个程度

🤔

困惑

苹果为何如此温和

😔

无力

整改像往漏水的船舀水

🧠

清醒

承认现实才能开始改变

警示

     Grok deepfake 事件之所以重要,不是因为它有多恶劣——虽然它确实很恶劣。而是因为它是一个完美的案例,展示了当 AI 的能力跑在社会前面的时候,我们的所有应对机制都是多么的不堪一击。   

法律不够用,因为追责成本太高。技术手段不够用,因为绕过的成本太低。商业自律不够用,因为利益冲突太明显。公众监督不够用,因为注意力只能维持几天。

这不是悲观主义。这是现实

而承认现实,是解决问题的第一步。

至少现在,全世界都知道了苹果给马斯克写过那封信。至少 NBC News 和 The Verge 还有人在持续追踪报道。至少那些起诉 xAI 的青少年还在法庭上争取自己的权益。

     这些微弱的声音加在一起,或许还不够响亮但在 AI 浪潮席卷一切的时代保持清醒、持续追问、拒绝麻木大概是我们普通人唯一能做的事了

END

来源:The Verge / NBC News | 作者整理 & 原创分析