乐于分享
好东西不私藏

当技术博客越来越少,AI文章越来越多:我们会不会把自己“锈掉”?

当技术博客越来越少,AI文章越来越多:我们会不会把自己“锈掉”?

最近看技术文章时,我有一个越来越明显的感受:
大概从今年 2 月份之后,基础技术的分享文章明显变少,AI 相关的文章明显变多
不是说基础技术内容彻底消失了,而是那种认真讲原理、讲细节、讲踩坑、讲设计权衡的文章,肉眼可见地少了。取而代之的是各种 AI 应用、AI 工具、AI 提效、AI 改造流程、AI 如何替代某某岗位的内容,密度越来越高。
我认为这是一个值得警惕的信号。

一、为什么基础技术文章变少了?

一个很现实的原因是:读者获取知识的方式变了
以前我们遇到一个技术问题,往往会:
  • 搜索博客
  • 翻官方文档
  • 看论坛问答
  • 收藏作者的系列文章
  • 持续追更某些技术专栏
而现在,很多人的第一反应已经变成:
“先问一下大模型。”
这当然可以理解。大模型确实很方便,响应快、交互自然、总结能力强,看起来像一个随叫随到的技术助手。很多原本需要搜索、筛选、比对、消化的信息,现在一句话就能得到一个“还不错”的答案。
于是,读者对传统技术博客的依赖下降了。
与此同时,写作者也会很快感受到变化:
  • 精心写一篇底层原理文章,阅读量平平
  • 花很多时间做实验、画图、整理案例,传播效果一般
  • 反而是“AI 帮我 10 分钟完成 XXX”的文章更容易获得流量
流量变差,反馈变弱,投入产出比下降,作者自然会减少投入。
于是就形成了一个非常微妙的变化:
读者因为 AI 不再持续阅读技术博客,作者因为流量下降不再持续产出高质量技术内容

二、这可能会形成一个恶性循环

真正值得担忧的,不是“技术文章少了一点”,而是这背后可能出现的链条:

人类原创技术分享减少

尤其是那些带有一手经验、真实环境、复杂问题、失败案例、长期维护视角的内容减少。而且活儿都是AI完成的,也没有啥好分享的。

可公开学习的高质量技术语料减少

很多基础技术知识不是靠“标准答案”构成的,而是靠大量工程实践、设计争论、问题复盘、架构演进积累起来的。

大模型可依赖的优质知识来源变少

大模型并不是凭空生成知识。它之所以“看起来懂很多”,很大程度上是因为它学习过大量人类写下来的内容。

模型输出逐渐更依赖二次加工和同质化内容

如果新产生的信息越来越少,模型接触到的“新鲜、真实、深度、有上下文的知识”就会减少,最终更容易在已有套路上循环、重组、互相投喂。

用户进一步依赖模型,却得到越来越平庸的答案

这才是最危险的地方:大家以为工具越来越强,实际上工具背后的知识源头可能在慢慢枯竭。
这就像在消耗地下水。前期体验很好,取水方便,成本低,甚至让人觉得世界变得更高效了。但如果补给系统出了问题,等大家意识到井快干了,往往已经太晚。

三、AI 不是问题,放弃思考才是问题

这里要强调一点:
我并不是在反对 AI。
AI 是非常有价值的工具。无论是辅助编码、总结文档、快速入门、发现思路,还是作为学习陪练,它都已经展现了巨大的实用性。
问题从来不在于“用不用 AI”,而在于:
我们是不是开始把“获取答案”误认为“掌握知识”,把“快速完成”误认为“真正理解”
这是两回事。
你让 AI 帮你写了一段代码,和你真的理解了这段代码的边界条件、性能特征、异常场景、维护成本,不是一回事。
你让 AI 总结了一篇论文,和你真的掌握了论文的方法假设、实验设计、适用范围,也不是一回事。
你让 AI 帮你写了一篇技术方案,和你真正具备独立做技术判断、承担结果责任的能力,更不是一回事。
如果我们越来越习惯于:
  • 不验证就使用
  • 不推演就接受
  • 不质疑就复制
  • 不复盘就交付
那么被“锈掉”的,不是模型,而是我们自己。

四、最可怕的不是 AI 变强,而是人变弱

很多人讨论 AI 时,最担心的是“岗位被替代”。
但我越来越觉得,更值得担心的,是另一种更慢、更隐蔽的替代:
人的判断力、拆解能力、表达能力、抽象能力、长期积累能力,被慢慢外包掉了
一个社会真正强大的地方,从来不只是拥有多少工具,而是拥有多少能理解工具、改造工具、修复工具、超越工具的人
如果下一代工程师越来越少写技术博客、越来越少做系统化总结、越来越少公开分享一手经验,整个技术共同体的“知识再生产能力”就会变弱。
当知识不再被认真地写出来、争论出来、沉淀下来,而只是被快速消费、快速调用、快速拼装时,我们会逐渐失去一件非常关键的东西:
培养专家的土壤。
而专家从来不是“需要的时候招聘一下”就能立刻出现的。
专家需要:
  • 长期的问题浸泡
  • 反复的真实实践
  • 公开的经验交流
  • 代际之间的知识传递
  • 足够丰富的失败样本和复杂场景
这些东西,一旦断层,是很难迅速补回来的。

五、这有点像“铁锈地带”式的知识衰退

我想到一个并不完全对应、但很有启发性的类比:美国“铁锈地带”的衰落。
一项产业的衰退,不只是工厂没了、岗位没了,更深层的是整套能力网络一起衰退:
  • 工人经验流失
  • 技术工种断层
  • 上下游协同能力消失
  • 职业教育体系萎缩
  • 年轻人不再进入这个行业
  • 社会对这类能力的尊重和想象力一起下降
等到某一天,外界突然意识到“我们需要恢复制造能力”,事情已经不是加点预算、招几个人那么简单了。因为真正消失的,是那个支撑产业持续运转的人才生态和能力生态。
技术知识的生产,其实也有类似的问题。
如果今天我们默认“反正有 AI,基础知识写不写都差不多”,那几年之后,可能就会发现:
  • 真正高质量的技术写作越来越稀缺
  • 具备系统思考能力的人越来越少
  • 公开可验证的一手经验越来越少
  • 大模型也越来越难获得优质新增知识
  • 整个生态逐渐被“似是而非的正确”填满
那时再想说“我们重新重视基础技术、重新培养专家吧”,难度会比现在大得多。

六、为什么“人类写作”仍然不可替代?

有人可能会说:就算人类作者减少,AI 也可以继续生成内容,互相增强,不一定会变差。
问题在于,知识的真正源头不是“会说”,而是“做过、错过、想过、论证过”。
高质量技术内容的价值,不只是信息本身,而是它背后的这些东西:
  • 真实问题来自哪里
  • 为什么这么设计,而不是那样设计
  • 哪些结论在小规模成立,大规模会失效
  • 哪些经验是有前提的,不能照搬
  • 作者踩过哪些坑,为什么会踩
  • 同一问题在不同场景下为什么答案不同
这些内容不是简单“整理已有资料”就能稳定产出的,它们需要真实的人在真实世界里长期碰撞。
换句话说:
技术写作不是知识搬运,而是工程经验的外化。
而这恰恰是今天最容易被低估的价值。

七、我们应该怎样使用 AI,才不至于把自己“锈掉”?

既然 AI 已经来了,回避没有意义。真正重要的是,我们要建立一种更健康的使用方式。

把 AI 当助手,不要当裁判

AI 可以帮你找线索、搭框架、提思路,但最后做判断的,应该是你自己。

对关键结论保持验证习惯

尤其是代码、安全、架构、性能、法律、财务、医疗等高风险领域,不能因为“AI 说得很像”就直接采用。
风险提示:AI 输出可能存在事实错误、过时方案、伪造引用、遗漏边界条件
在工程实践中,关键结论要通过官方文档、实验验证和同事评审来确认。

不要跳过“思考的中间过程”

最容易让人退化的,不是 AI 给出答案,而是我们不再进行问题拆解、方案比较和因果推演。

尽量保留自己的表达和总结能力

看完、做完、用完之后,试着自己写一段总结,自己解释一次原理,自己复盘一次得失。
这是在防止认知能力被外包。

继续写作,继续分享

哪怕阅读量没有过去高,写作本身依然有价值。
它不仅帮助别人,更是在训练自己把模糊经验变成清晰知识。

鼓励一手经验的公开沉淀

与其泛泛地写“AI 让效率提升 300%”,不如多写一些真实、可复用、可验证的内容,比如:
  • 某个线上问题的定位过程
  • 某个组件选型的权衡依据
  • 某个性能优化的实验数据
  • 某次架构调整失败的复盘
  • 某类业务复杂度如何演化
这些内容,也许不那么“爆款”,但它们才是技术共同体真正的营养。

八、真正该警惕的,是知识生态的失血

我们今天正在享受 AI 带来的便利,这没有问题。
但如果整个社会一边大量消费由过去人类积累形成的知识成果,一边又削弱新的高质量知识生产,那么从长期看,我们就是在透支未来。
更准确地说,我们透支的不是“内容”,而是:
  • 专家的形成机制
  • 社区的讨论密度
  • 技术判断的公共基础
  • 可被机器学习的人类经验
  • 一个社会持续创新的底层能力
如果这些东西持续失血,那么即便工具在短期内越来越聪明,社会整体也未必会因此变得更强。
因为真正强大的,不是“有一个什么都能答的大模型”,而是始终拥有一群愿意钻研、能做判断、会写下来、敢于修正的人。

九、最后:不要只把 AI 当成替代品,也要把它当成提醒

AI 的出现,其实像一面镜子。
它提醒我们,哪些能力只是机械重复,哪些能力才真正属于人。
它也提醒我们,社会中最珍贵的,不是那些看起来能被快速生成的内容,是那些经过实践、思考、验证和表达之后沉淀下来的经验。
所以,为了延缓甚至避免那个“知识源头萎缩、模型越来越空、人也越来越弱”的未来,我们至少可以从自己开始做一点小事:
  • 用 AI,但不依赖 AI 到放弃思考
  • 参考答案,但保留审查和验证
  • 获取知识,也继续生产知识
  • 享受效率,也守住能力
  • 借助工具,但不把自己交给工具
否则,最终被锈掉的,可能不是某个行业,不是某个岗位,也不是某个模型。
而是我们自己。