Grok 差点被苹果踢出 App Store,但最该慌的其实不是马斯克
Grok 差点被苹果踢出 App Store但最该慌的其实不是马斯克
Apple vs AI — 当科技巨头面对深度伪造的失控
NBC News 曝光了苹果今年 1 月发给 xAI 的内部信——要么整改深度伪造色情内容,要么 Grok 滚出 App Store。经过多轮拉扯后勉强过关。但安全研究人员测试发现,直到今天,Grok 仍然能轻松生成名人和普通人的色情 deepfake。这不是技术问题,这是一面照妖镜。
今年 1 月,苹果做了一件它很少做的事。
不是发布新产品,也不是收购公司。而是给埃隆·马斯克的公司写了一封信。
一封没有公开、没有新闻发布会、没有 Twitter 炒作的私信。
信的内容很简单:你们那个叫 Grok 的 AI 应用,再不解决非自愿色情 deepfake 的问题,就从 App Store 滚蛋。
这封信后来被 NBC News 拿到了。今天,The Verge 的记者 Robert Hart 把整个故事翻了个底朝天。
我看完之后最大的感受不是愤怒,也不是恐惧。
是一种荒诞感。
图片来源:Unsplash
全世界最有钱的男人,被一家卖手机的公司训了
先理清时间线,这件事比大多数人以为的要复杂得多。
Grok 在 X 掀起 deepfake 海啸——输入照片,几秒出裸照
国会议员施压、民间组织批评、青少年提起 CSAM 诉讼
幕后联系 X 和 Grok 团队,要求提交整改计划
注意,苹果的处理方式非常“苹果”——它没有公开发声明谴责,没有召开紧急发布会,而是在幕后同时联系了两个团队。
第一轮审核:X 过了,Grok 挂了
苹果审查后的结果很有意思。
X 平台被认为”基本解决了违规问题”。但 Grok 应用呢?”仍不合规”。
图片来源:Unsplash
你品品这个场景。X 和 Grok 本质上是同一个生态里的产品,用的是同一套底层模型,面对的是同一批用户。但苹果判定一个过了、另一个没过。这中间的灰色地带,够法律系的学生写三篇论文。
接下来就是多轮的幕后拉扯。xAI 团队提交修改方案,苹果审核,打回,再提交,再审核。来来回回好几次。
“
最终,苹果认定 Grok”已有显著改进”,批准了更新。整个过程,外界几乎一无所知。
—— 直到 NBC News 把那封信曝光
根据 The Verge 的调查,xAI 一共做了三件事。
整改一:付费墙
把 Grok 在 X 上的使用限制为付费订阅者才能用。逻辑是提高门槛,让随意的恶搞变难一点。
整改二:功能阻断
尝试在技术上阻止 Grok 生成”脱衣”女性的图像功能。具体怎么做的,xAI 没有公布细节。
整改三:照片屏蔽
推出照片编辑屏蔽功能,允许 X 用户设置阻止 Grok 编辑自己的照片。
听起来挺全面对吧?三管齐下,总该有点效果吧?
⚠️ 安全研究人员的测试结果:没用。或者说,效果约等于没有。
多名网络安全专家告诉 The Verge,他们仍然能够用 Grok 生成名人和政治人物的高度露骨图像。The Verge 自己的记者也试了一下,成功生成了自己和同意参与的成年人的脱衣图像。NBC News 的独立测试也得到了类似的结论。
那些整改措施,只是让工具变得”稍微难访问了一点”,以及照片屏蔽功能”容易被规避”。
翻译成人话:你要是铁了心想干坏事,这些防线跟纸糊的没什么区别。
03 为什么这件事让我觉得荒诞
因为这里面涉及的三方,每一个都在扮演一个很微妙的角色。
🍎 苹果 — 守门人的双重标准
App Store 的守门人,一向以审核严格著称。但在面对”AI 生成大规模非自愿色情内容”这种事上,选择了私下写信、多次沟通、最终放行。整个过程没有一次公开声明,没有一次实质性的惩罚。要知道,苹果从 App Store 分成中赚取的收入里,有 X 和 Grok 的一份。
🤖 xAI / 马斯克 — 自由的鼓吹者变成了审查对象
拥有当今世界最激进的 AI 公司之一,结果自己的产品变成了最大规模的 deepfake 制造机之一。被苹果点名整改时,拿出的方案像是应付老师检查作业的中学生——表面功夫做得足,实际效果接近于零。更讽刺的是,马斯克平时在 X 上可是言论自由的最大鼓吹者。
👤 普通用户 — 真正的受害者
尤其是女性用户。你的照片可能被任何人拿来训练模型、生成 fake 裸照、传播到互联网的各个角落。而你对此几乎无能为力。去每一家 AI 公司一个个申请”别用我的脸”?还是指望苹果和谷歌帮你挡住所有恶意使用?哪一个都不靠谱。
图片来源:Unsplash
04 这不是一个技术问题
很多人看到这类新闻的第一反应是”技术上应该可以解决”。加个实名认证、加强内容过滤、用 AI 对抗 AI……
但这件事的核心矛盾根本不在技术层面。
技术当然可以做到更好的检测和拦截。但只要底层模型具备生成图像的能力,就一定有人能找到绕过限制的方法。防御方必须堵住所有漏洞,攻击方只需要找到一个。
真正的问题在于:当一个工具的能力远远超过社会现有治理体系所能约束的范围时,我们该怎么办?
deepfake 不是新问题。早在 2017 年就有 Reddit 用户在用 DeepFaceLab 换脸了。但那时的门槛很高,需要显卡、需要技术能力、需要时间。现在呢?打开 Grok,上传一张照片,等几秒钟。
门槛从”极客玩家”降到了”任何一个有手机的人”这不是量变,这是质变
当作恶的成本趋近于零,传统的威慑机制(法律追责、平台封号、社会声誉)就会失效。因为你不可能追查到每一个生成 deepfake 的人,尤其是在匿名账户和加密网络大行其道的今天。
所以苹果的那封信,不管写得多么严肃本质上是一张创可贴贴在一个动脉出血的伤口上
如果你觉得 deepfake 色情内容已经够糟糕了,那还有几个相关的进展可能会让你更不安。
🔑 同一时间轴上的三条线索:
!青少年诉讼:一组青少年向 xAI 提起了诉讼,指控 Grok 生成了以他们为素材的 CSAM 内容
!欧洲调查:数据隐私监管机构已经开始关注 xAI 的数据收集行为——训练数据合法性在灰色地带
!美国立法:多位参议员联名要求苹果和谷歌说明 AI 应用商店审核标准
图片来源:Unsplash
所有这些线索指向同一个方向:Grok deepfake 事件不是孤例,它是 AI 能力失控的一个早期症状。
每一项技术在被滥用的初期,都会经历一个”震惊—讨论—无效整改—逐渐麻木”的循环。我们现在大概处于第二阶段和第三阶段之间。
回到那封信
苹果给 xAI 写的那封信,据 NBC News 报道,措辞相当正式。”create a plan to improve content moderation”——制定改进内容审核的计划。
听起来很合理对吧?但你仔细想想,这句话的潜台词是什么?它的潜台词是:苹果并不打算自己解决这个问题。它把球踢回了开发者脚下。
这就是当前 AI 治理最真实的写照。没有人真的知道该怎么办。政府不知道,平台不知道,连开发这些模型的公司自己都不知道。
他们只知道一件事:不能什么都不做。因为那样的话,公众会愤怒,议员会质询,股价会波动。
于是就有了私下写信、有限整改、勉强过关、问题依旧的全套流程。一套看起来很忙碌、实际上什么都没有解决的流程。
说实话,写这篇文章的过程中我的情绪一直在变化。
😱
震惊
Grok 居然能做到这个程度
🤔
困惑
苹果为何如此温和
😔
无力
整改像往漏水的船舀水
🧠
清醒
承认现实才能开始改变
Grok deepfake 事件之所以重要,不是因为它有多恶劣——虽然它确实很恶劣。而是因为它是一个完美的案例,展示了当 AI 的能力跑在社会前面的时候,我们的所有应对机制都是多么的不堪一击。
法律不够用,因为追责成本太高。技术手段不够用,因为绕过的成本太低。商业自律不够用,因为利益冲突太明显。公众监督不够用,因为注意力只能维持几天。
这不是悲观主义。这是现实。
而承认现实,是解决问题的第一步。
至少现在,全世界都知道了苹果给马斯克写过那封信。至少 NBC News 和 The Verge 还有人在持续追踪报道。至少那些起诉 xAI 的青少年还在法庭上争取自己的权益。
这些微弱的声音加在一起,或许还不够响亮但在 AI 浪潮席卷一切的时代保持清醒、持续追问、拒绝麻木大概是我们普通人唯一能做的事了
END
来源:The Verge / NBC News | 作者整理 & 原创分析
夜雨聆风