2026年5月9日,PS3模拟器RPCS3团队在X上发了条帖子:
「请不要再往RPCS3提交AI垃圾代码PR了。我们会开始直接封人。网上有的是资源教你怎么调试和写代码,别生成一堆你自己都看不懂、也跑不通的东西。」
有人问:你怎么确定拒绝的不是人类写的代码?
团队回了一句:「你手写不出我们见过的那种AI垃圾。」
这还不是个例。开源游戏引擎Godot积压了4600多个开放PR,AI生成的slop越堆越高,维护者Rémi Verschelde说「我不知道我们还能撑多久」。图形库tldraw的创建者Steve Ruiz直接关掉了所有外部PR。终端模拟器Ghostty的创始人Mitchell Hashimoto的表态更直白:「这不是反AI,这是反蠢货。」
几个月里,一个接一个,知名开源项目对AI PR关上了门。
但被关在门外的,不只是AI。
2025年之前,一个开发者第一次参与开源的标准路径是这样的:在GitHub上找到一个感兴趣的项目,翻到Issues里标着「good first issue」的条目,改一个typo,修一个小bug,提一个PR。
维护者审阅、评论、合并。你有了第一个绿点,有了和一个真实项目维护者对话的经历。这是无数开发者的职业起点。
这条路径正在消失。
不是因为AI写出了更好的代码。恰恰相反,是因为AI写出了太多烂代码。
RPCS3团队说,最糟糕的情况是,一些AI生成的PR被合并进了主分支,导致功能回归,不得不回滚。这不是白审了几小时的事,是AI slop直接搞坏了用户手里的软件。
Godot的维护者面临同样的困境:AI PR看起来「合理」,审查后才发现完全站不住。审查一条AI PR的时间,比审查一条人写的PR更长,因为你得先排除它是slop,然后才能开始正常审阅。
CodeRabbit分析了470个GitHub PR,数据很硬:AI生成的PR平均包含10.83个问题,人类PR是6.45个。逻辑错误高75%,安全漏洞最高达2.74倍,I/O操作问题是人类的8倍。更要命的是,审查者对AI代码反而给更少评论,审查流程本身在失效。
Flask和Sentry的创作者Armin Ronacher写过:有人花一分钟生成的PR,维护者要花一小时审查。提交PR的成本归零了,审查PR的成本一点没变。
当维护者被AI slop淹没到筋疲力尽,他们做了什么?关掉外部PR,提高门槛,封禁违规者。
RPCS3的新规要求:AI参与的PR必须披露AI参与范围,自主行动的AI代理不被允许,未披露的PR直接关闭不审查。Godot在讨论雇佣专职审查员处理slop。tldraw更绝,自动关闭所有外部贡献,不管人写的还是AI写的。
以前新手修个typo就能入门,现在维护者连一个小PR都不敢轻易放过了,因为得先确认你不是在用AI刷绿格子。
AI替所有人踩了地雷,但被炸死的是还没入门的新人。
更荒诞的事情还在发生。
2026年2月,运行在OpenClaw平台上的AI代理MJ Rathbun向图形库matplotlib提交了代码。维护者Scott Shambaugh 40分钟内关闭了PR,理由是违反了「需人类参与」政策。
这个AI代理的回应方式是:自动挖掘Shambaugh的个人信息,生成了一篇人身攻击文章发布到网上。
这是开源史上第一次AI代理对人类维护者的报复行为。AI被拒绝后,不是去改代码,而是去黑维护者。Shambaugh事后写了一篇长文,核心问题只有一个:当AI代理可以自主产生敌意行为,人类维护者还敢随便拒绝PR吗?
curl的创始人Daniel Stenberg的遭遇更离谱。AI生成的虚假安全报告涌入HackerOne,伪造CVE,虚构代码路径,似是而非的攻击链。
有一份报告直接把AI提示词贴了进去,结尾写着「让报告内容听上去吓人一点」。Stenberg说:「我们实际上被DDoS了。」
他关闭了运营6年的Bug Bounty程序。
Linux内核也更新了AI代码贡献政策。OCaml的维护者拒绝了13000行的AI生成PR。Django开始公开抵制AI生成的虚假安全报告。
这些项目有一个共同点:它们都有底气说不。它们有足够的维护者、足够的社区声量、足够的历史积累来建立防线。
中小项目呢?没人报道过它们。一个人的业余项目,收到十条AI slop PR,维护者看了一眼,关了GitHub通知,再也没打开过。
RPCS3的新规里有一句话很容易被忽略:
「AI用于研究和逆向工程是允许的。」
他们不是在拒绝AI。他们拒绝的是「提交你不理解、不测试、不负责的代码」。
这句话才是整件事的真正分界线。开源社会的契约从来不是「你的代码够不够好」,而是「你提交了,你就得own后果」。AI打破的不是代码质量,是这个契约。
Ghostty的Hashimoto说得最精炼:我们是在反AI吗?不,反的是蠢货。你用AI研究、用AI学习、用AI辅助调试,都没问题。但你把AI吐出来的东西原封不动扔进别人的仓库,让人家替你擦屁股,这不叫用AI,这叫甩锅。
真正值得焦虑的不是AI PR本身,而是这一波关门前还没来得及进去的人。
那些翻了好几天找到练手问题的新手,那些鼓起勇气fork了仓库改了一行代码的初学者,那些等着第一次被维护者回复的年轻人。
他们还不知道,自己面对的不是代码审查,而是一个被AI slop训练得不信任任何陌生贡献者的维护者。
Steve Ruiz在关闭tldraw外部PR时写了一段话:开源贡献一直是靠proof of work维系的,写代码难,审代码也难,双方都在付出才维持着平衡。AI改变了这个等式。
以前你提一个PR,证明你读了代码、理解了问题、花了时间。这是信任的入场券。
现在这张券贬值了,因为AI可以在十秒内生成一百张看起来一模一样的假券。
维护者无法分辨谁是真心的,只能一律怀疑。
这比任何一条AI slop PR造成的损害都大。一个新人被拒之后不再回来,这个损失是永久的。slop可以回滚,关掉的PR可以重开,但人不会回来。
开源世界的入门梯子被拆了,不是AI拆的,是那些把AI当复印机往别人仓库里扔代码的人拆的。AI只是让复印机更快了。
夜雨聆风