乐于分享
好东西不私藏

AI代码助手被拒率飙升,QCon演讲揭露模型与真实

AI代码助手被拒率飙升,QCon演讲揭露模型与真实

AI生成的代码越来越多,但被合并的却越来越少。QCon London 2026上,Jeff Smith直接指出了这个让所有团队头疼的现状。

  • AI辅助贡献在大型开源项目中激增,但PR接受率却在反向下降
  • 根本原因是每个代码库都有自己不成文的“潜规则”,AI模型学不到。
  • 解决方案不是换工具,而是“代码库指纹识别”,把隐性知识显性化。

AI代码的“水土不服”

Jeff Smith讲了个大实话:现在的AI编码模型,跟真实世界的代码库是脱节的。模型训练用的都是几个月甚至更早的公开仓库快照,根本接触不到公司内部那些藏着掖着的代码。结果就是,AI能写出语法没毛病的代码,但一放到具体的项目里,就各种踩雷。

他举了个数据,从2022年到2025年,几个大型开源项目的PR里提到AI工具的次数暴增。但与此同时,PR的接受率却掉下来了。说白了,AI让码农们写得快了,但产出的东西能用的比例没上去,甚至可能还拖了后腿。

“The fundamental reason is that every repository has its own unwritten rules. These architectural constraints often live in the experience of senior engineers or in patterns embedded in a project’s commit history rather than in formal documentation.”

你想啊,一个项目里,组件怎么注册、依赖怎么处理、跨文件版本怎么同步,这些规矩可能只存在老鸟的脑子里,或者藏在几千条commit历史里。AI模型哪知道这些。

两类“潜规则”让AI抓瞎

Smith把代码库里的这些规矩分成了两大类。一类是架构规则,管的是系统本身怎么搭。比如上面说的组件注册模式、依赖处理机制。另一类是流程规则,管的是代码怎么改、怎么审。比如PR要怎么写、测试要达到什么标准、review流程是啥样。

最要命的是,这些规则很多时候是靠人工review来“心照不宣”地执行的,而不是靠自动化工具。所以AI生成的代码,在模型眼里完美无缺,到了资深工程师那,一眼就能看出“味儿不对”。


出路:给代码库建“指纹”

那怎么办?Smith提了个概念叫“代码库指纹识别”。说白了,就是系统性地把你这个代码库里那些独特的约束给挖出来、记下来。目标是把开发者心里知道但没写出来的那些隐性知识,变成人和AI都能看懂、能用的显性知识。

他还怼了现在评测AI编码模型的那套标准。解算法题、检查语法,这些通用任务根本测不出模型能不能在你自己的代码库里“活下来”。公司应该根据AI工具尊重自家代码库架构约束的能力来评估它们。谁能先把自家代码库的规则文档化、可操作化,谁就能在AI生成代码泛滥的时代占到大便宜。

“The growing mismatch between AI models and real repositories is not primarily a tooling problem but a knowledge management problem.”

最后他总结,AI模型和真实代码库越来越不匹配,这主要不是工具问题,是知识管理问题。工程团队其实已经掌握了指导AI辅助开发所需的知识,挑战在于怎么把这些知识显性化,并整合到生成代码的系统里去。

留言聊聊
你们团队用AI写代码,PR被拒的主要原因是什么?是架构不合规,还是流程不熟悉?

来源:InfoQ AI/ML|原文:QCon London 2026: Refreshing Stale Code Intelligen

本站文章均为手工撰写未经允许谢绝转载:夜雨聆风 » AI代码助手被拒率飙升,QCon演讲揭露模型与真实

猜你喜欢

  • 暂无文章